Compartilhar via


Grupo de comandos bundle

Note

Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.

O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer provisionamentos de Dados de Uso.

O bundle grupo de comandos dentro da CLI do Databricks contém comandos para gerenciar pacotes de ativos do Databricks. Os Pacotes de Ativos do Databricks permitem que você expresse projetos como código e valide, implante e execute programaticamente fluxos de trabalho do Azure Databricks, como trabalhos do Azure Databricks, Pipelines Declarativos do Lakeflow Spark e MLOps Stacks. Consulte O que são os Pacotes de Ativos do Databricks?.

Note

Os comandos de pacote usam as configurações em databricks.yml para autenticação quando executados de dentro da pasta do pacote. Se você quiser executar comandos de pacote com autenticação diferente de dentro da pasta do pacote, especifique um perfil de configuração usando o --profile sinalizador (ou -p) e não especifique um --target.

Como alternativa, execute comandos que não precisam da mesma autenticação que o pacote ao serem executados fora da pasta do pacote.

implantação do pacote do databricks

Implante um pacote no workspace remoto.

databricks bundle deploy [flags]

Destino e identidade do pacote

Para implantar o pacote em um destino específico, defina a opção -t (ou --target) junto com o nome do destino, conforme declarado nos arquivos de configuração do pacote. Se nenhuma opção de comando for especificada, o destino padrão, conforme declarado nos arquivos de configuração do pacote, será usado. Por exemplo, para um destino declarado com o nome dev:

databricks bundle deploy -t dev

Um pacote pode ser implantado em vários espaços de trabalho, como espaços de trabalho de desenvolvimento, homologação e produção. Fundamentalmente, a root_path propriedade é o que determina a identidade exclusiva de um pacote, que usa como padrão ~/.bundle/${bundle.name}/${bundle.target}. Portanto, por padrão, a identidade de um pacote é composta pela identidade do implantador, pelo nome do pacote e pelo nome de destino do pacote. Se forem idênticos em diferentes pacotes, a implantação dos pacotes sofrerá interferência.

Além disso, uma implantação de reunião rastreia os recursos que cria no espaço de trabalho de destino por suas IDs como um estado armazenado no sistema de arquivos do espaço de trabalho. Os nomes de recursos não são usados para correlacionar uma implantação de pacote e uma instância de recurso, portanto:

  • Se um recurso na configuração do pacote não existir no workspace de destino, ele será criado.
  • Se houver um recurso na configuração do pacote no espaço de trabalho de destino, ele será atualizado lá.
  • Se um recurso for removido da configuração do pacote, ele será removido do workspace de destino se ele tiver sido implantado anteriormente.
  • A associação de um recurso a um pacote só poderá ser esquecida se você alterar o nome do pacote, o destino do pacote ou o workspace. Você pode executar bundle validate para gerar um resumo contendo esses valores.

Opções

--auto-approve

    Ignore as aprovações interativas que podem ser necessárias para implantação.

-c, --cluster-id string

    Substitua o cluster na implantação com a ID de cluster fornecida.

--fail-on-active-runs

    Falhará se houver trabalhos ou pipelines em execução na implantação.

--force

    Forçar a substituição da validação do branch git.

--force-lock

    Forçar a aquisição do bloqueio de implantação.

Sinalizadores globais

Exemplos

O exemplo a seguir implanta um pacote usando uma ID de cluster específica:

databricks bundle deploy --cluster-id 0123-456789-abcdef

Implantação do pacote databricks

Comandos relacionados à implantação.

databricks bundle deployment [command]

Comandos disponíveis

  • bind - Associar um recurso definido por pacote a um recurso existente no workspace remoto.
  • migrate – Migrar um pacote para usar o mecanismo de implantação direta.
  • unbind - Desvinme um recurso definido por pacote de seu recurso remoto.

Associação de implantação do pacote databricks

Vincule recursos definidos por pacote a recursos existentes no workspace do Azure Databricks para que eles se tornem gerenciados pelos Pacotes de Ativos do Databricks. Se você associar um recurso, o recurso existente do Azure Databricks no workspace será atualizado com base na configuração definida no pacote ao qual ele está associado após o próximo bundle deploy.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Bind não recria dados. Por exemplo, se um pipeline com dados em um catálogo tiver a vinculação aplicada, você poderá implantar nesse pipeline sem perder os dados existentes. Além disso, você não precisa recomputar a visão materializada, por exemplo, para que os pipelines não precisem ser executados novamente.

O comando bind deve ser usado com a flag --target. Por exemplo, associe sua implantação de produção ao pipeline de produção usando databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929

Tip

É uma boa ideia confirmar o recurso no workspace antes de executar a associação.

O Bind tem suporte para os seguintes recursos:

Para recursos compatíveis com o bundle generate comando, associe automaticamente o recurso após a geração usando a opção --bind .

Argumentos

KEY

    A chave do recurso a ser vinculada

RESOURCE_ID

    A ID do recurso existente ao qual associar

Opções

--auto-approve

    Aprovar automaticamente a associação, em vez de solicitar

--force-lock

    Forçar a aquisição do bloqueio de implantação

Sinalizadores globais

Exemplos

O comando a seguir associa o recurso hello_job ao seu equivalente remoto no workspace. O comando mostra as diferenças e permite que você recuse a associação de recursos, mas, se confirmada, todas as atualizações na definição de trabalho no pacote são aplicadas ao trabalho remoto correspondente na próxima vez que o pacote for implantado.

databricks bundle deployment bind hello_job 6565621249

Migração de implantação do pacote databricks

Important

Esse recurso é experimental.

Migre o pacote do uso do mecanismo de implantação do Terraform para o uso do mecanismo de implantação direta. Consulte Migrar para o mecanismo de implantação direta. Para concluir a migração, você deve implantar o pacote.

Você pode verificar se uma migração foi bem-sucedida executando databricks bundle plan. Consulte o plano do pacote do Databricks.

databricks bundle deployment migrate [flags]

Argumentos

None

Opções

Sinalizadores globais

Exemplos

O exemplo a seguir migra o pacote atual para usar o mecanismo de implantação direta:

databricks bundle deployment migrate

implantação de pacote do databricks desassociada

Remova o vínculo entre o recurso em um pacote e seu equivalente remoto em um workspace.

databricks bundle deployment unbind KEY [flags]

Argumentos

KEY

    A chave do recurso que deve ser desassociada

Opções

--force-lock

    Forçar a aquisição do bloqueio de implantação.

Sinalizadores globais

Exemplos

O exemplo a seguir desassocia o hello_job recurso:

databricks bundle deployment unbind hello_job

destruição do pacote do databricks

Warning

A destruição de um pacote exclui permanentemente os trabalhos, pipelines e artefatos implantados anteriormente de um pacote. Essa ação não pode ser desfeita.

Exclua trabalhos, pipelines, outros recursos e artefatos que foram implantados anteriormente.

databricks bundle destroy [flags]

Note

A identidade de um pacote é composta pelo nome do pacote, pelo destino do pacote e pelo workspace. Se você tiver alterado qualquer um deles e tentar destruir um pacote antes da implantação, ocorrerá um erro.

Por padrão, você será solicitado a confirmar a exclusão permanente dos trabalhos, pipelines e artefatos implantados anteriormente. Para ignorar esses prompts e executar a exclusão permanente automática, adicione a opção --auto-approve ao comando bundle destroy.

Opções

--auto-approve

    Ignorar aprovações interativas para excluir recursos e arquivos

--force-lock

    Forçar a aquisição do bloqueio de implantação.

Sinalizadores globais

Exemplos

O comando a seguir exclui todos os recursos e artefatos implantados anteriormente definidos nos arquivos de configuração do pacote:

databricks bundle destroy

geração de pacote do databricks

Gere a configuração do pacote para um recurso que já existe no workspace do Databricks. Há suporte para os seguintes recursos: aplicativo, painel, trabalho, pipeline.

Por padrão, esse comando gera um arquivo *.yml do recurso na pasta resources do projeto do pacote e também baixa todos os arquivos, como notebooks, referenciados na configuração.

Important

O comando bundle generate é fornecido como uma conveniência para gerar automaticamente a configuração de recursos. No entanto, se o pacote incluir a configuração de recursos e você implantá-la, o Azure Databricks criará um novo recurso em vez de atualizar o existente. Para atualizar um recurso existente, você deve usar o --bind flag com bundle generate ou executar o bundle deployment bind antes de implantar. Consulte a associação de implantação do pacote do Databricks.

databricks bundle generate [command]

Comandos disponíveis

  • app – Gerar configuração de pacote para um aplicativo do Databricks.
  • dashboard – Gerar configuração para um painel.
  • job – Gerar configuração de pacote para um trabalho.
  • pipeline – Gerar configuração de pacote para um pipeline.

Opções

--key string

    Chave de recurso a ser usada para a configuração gerada

Sinalizadores globais

gerar o aplicativo de pacote do databricks

Gere a configuração do pacote para um aplicativo Databricks existente no workspace.

databricks bundle generate app [flags]

Opções

--bind

    Associe automaticamente o recurso gerado ao existente no workspace.

-d, --config-dir string

    Caminho do diretório em que a configuração do pacote de saída será armazenada (padrão "recursos")

--existing-app-name string

    Nome do aplicativo para gerar configuração

-f, --force

    Forçar a substituição de arquivos existentes no diretório de saída

-s, --source-dir string

    Caminho do diretório em que os arquivos do aplicativo serão armazenados (padrão "src/app")

Sinalizadores globais

Exemplos

O exemplo a seguir gera configuração para um aplicativo existente chamado my-app. Você pode obter o nome do aplicativo na guia Compute>Apps da UI do espaço de trabalho.

databricks bundle generate app --existing-app-name my-app

O comando a seguir gera um novo hello_world.app.yml arquivo na pasta de projeto do resources pacote e baixa os arquivos de código do aplicativo, como o arquivo app.yaml de configuração de comando do aplicativo e principal app.py. Por padrão, os arquivos de código são copiados para a pasta do src pacote.

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

painel de geração de pacote do databricks

Gerar configuração para um painel existente no workspace.

databricks bundle generate dashboard [flags]

Tip

Para atualizar o arquivo depois de já ter implantado .lvdash.json um painel, use a --resource opção ao executar bundle generate dashboard para gerar esse arquivo para o recurso de painel existente. Para sondar e recuperar continuamente as atualizações de um painel, use as opções --force e --watch.

Opções

--bind

    Associe automaticamente o recurso gerado ao existente no workspace.

-s, --dashboard-dir string

    Diretório para gravar a representação do painel (padrão "src")

--existing-id string

    ID do painel para gerar a configuração para

--existing-path string

    Caminho do workspace do painel para gerar a configuração para

-f, --force

    Forçar a substituição de arquivos existentes no diretório de saída

--resource string

    Chave de recurso do painel para observar as alterações

-d, --resource-dir string

    Diretório para gravar a configuração (padrão "recursos")

--watch

    Observe as alterações no painel e atualize a configuração

Sinalizadores globais

Exemplos

O exemplo a seguir gera a configuração por uma ID de painel existente:

databricks bundle generate dashboard --existing-id abc123

Você também pode gerar a configuração para um painel existente por caminho de workspace. Copie o caminho do workspace para um dashboard da interface do usuário do workspace.

Por exemplo, o comando a seguir gera um novo arquivo baby_gender_by_county.dashboard.yml na pasta do projeto resources do pacote, que contém o YAML abaixo, e faz o download do arquivo baby_gender_by_county.lvdash.json para a pasta do projeto src.

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

trabalho de geração de pacote do databricks

Gerar configuração de pacote para um trabalho.

Note

Atualmente, somente trabalhos com tarefas de notebook são compatíveis com esse comando.

databricks bundle generate job [flags]

Opções

--bind

    Associe automaticamente o recurso gerado ao existente no workspace.

-d, --config-dir string

    Caminho dir em que a configuração de saída será armazenada (padrão "recursos")

--existing-job-id int

    ID do trabalho para gerar configuração

-f, --force

    Forçar a substituição de arquivos existentes no diretório de saída

-s, --source-dir string

    Caminho dir em que os arquivos baixados serão armazenados (padrão "src")

Sinalizadores globais

Exemplos

O exemplo a seguir gera um novo hello_job.yml arquivo na pasta de projeto do resources pacote que contém o YAML abaixo e baixa a simple_notebook.py pasta do src projeto. Ele também associa o recurso gerado ao trabalho existente no workspace.

databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

pipeline de geração de pacote do databricks

Gerar configuração de pacote para um pipeline.

databricks bundle generate pipeline [flags]

Opções

--bind

    Associe automaticamente o recurso gerado ao existente no workspace.

-d, --config-dir string

    Caminho dir em que a configuração de saída será armazenada (padrão "recursos")

--existing-pipeline-id string

    ID do pipeline para gerar configuração para

-f, --force

    Forçar a substituição de arquivos existentes no diretório de saída

-s, --source-dir string

    Caminho dir em que os arquivos baixados serão armazenados (padrão "src")

Sinalizadores globais

Exemplos

O exemplo a seguir gera configuração para um pipeline existente:

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

databricks bundle init

Inicialize um novo pacote usando um modelo de pacote. Os modelos podem ser configurados para solicitar valores ao usuário. Confira Modelos de projetos do Pacote de Ativos do Databricks.

databricks bundle init [TEMPLATE_PATH] [flags]

Argumentos

TEMPLATE_PATH

    Modelo a ser usado para inicialização (opcional)

Opções

--branch string

    Branch do Git a ser usado para inicialização de modelo

--config-file string

    Arquivo JSON que contém pares chave-valor de parâmetros de entrada necessários para inicialização de modelo.

--output-dir string

    Diretório para o qual gravar o modelo inicializado.

--tag string

    Marca git a ser usada para inicialização de modelo

--template-dir string

    Caminho do diretório em um repositório Git que contém o modelo.

Sinalizadores globais

Exemplos

O exemplo a seguir solicita uma lista de modelos de pacote padrão dos quais escolher:

databricks bundle init

O exemplo a seguir inicializa um pacote usando o modelo padrão do Python:

databricks bundle init default-python

Para criar um Pacote de Ativos do Databricks usando um modelo personalizado do Pacote de Ativos do Databricks, especifique o caminho do modelo personalizado:

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

O exemplo a seguir inicializa um pacote de um repositório Git:

databricks bundle init https://github.com/my/repository

O exemplo a seguir inicializa com um branch específico:

databricks bundle init --branch main

pacote do databricks aberto

Navegue até um recurso de pacote no workspace, especificando o recurso a ser aberto. Se uma chave de recurso não for especificada, esse comando gerará uma lista dos recursos do pacote a partir do qual escolher.

databricks bundle open [flags]

Opções

--force-pull

    Ignorar o cache local e carregar o estado do workspace remoto

Sinalizadores globais

Exemplos

O exemplo a seguir inicia um navegador e navega até o baby_gender_by_county painel no pacote no workspace do Databricks configurado para o pacote:

databricks bundle open baby_gender_by_county

plano do pacote Databricks

Mostrar o plano de implantação para a configuração do pacote atual.

Esse comando cria o pacote e exibe as ações que serão executadas em recursos que seriam implantados, sem fazer nenhuma alteração. Isso permite que você visualize as alterações antes de executar bundle deploy.

databricks bundle plan [flags]

Opções

-c, --cluster-id string

    Substitua o cluster na implantação com a ID de cluster fornecida.

--force

    Forçar a substituição da validação do branch git.

Sinalizadores globais

Exemplos

O exemplo a seguir gera o plano de implantação para um pacote que cria uma roda do Python e define um trabalho e um pipeline:

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

Execução do pacote do databricks

Execute um trabalho, pipeline ou script. Se você não especificar um recurso, o comando solicitará a escolha de trabalhos, pipelines e scripts definidos. Como alternativa, especifique a chave de trabalho ou de pipeline ou o nome do script declarado nos arquivos de configuração do conjunto.

databricks bundle run [flags] [KEY]

Validar uma linha de processamento

Se você quiser fazer uma validação de pipeline, use a opção --validate-only, conforme mostrado no exemplo a seguir:

databricks bundle run --validate-only my_pipeline

Passar parâmetros de trabalho

Para passar parâmetros de trabalho, use a opção --params, seguida por pares chave-valor separados por vírgulas, em que a chave é o nome do parâmetro. Por exemplo, o comando a seguir define o parâmetro com o nome message como HelloWorld para o trabalho hello_job:

databricks bundle run --params message=HelloWorld hello_job

Note

Conforme mostrado nos exemplos a seguir, você pode passar parâmetros para tarefas de trabalho usando as opções de tarefa de trabalho, mas a opção --params é o método recomendado para passar parâmetros de trabalho. Ocorrerá um erro se os parâmetros de trabalho forem especificados para um trabalho que não tenha parâmetros de trabalho definidos ou se os parâmetros de tarefa forem especificados para um trabalho que tenha parâmetros de trabalho definidos.

Você também pode especificar palavras-chave ou argumentos posicionais. Se o trabalho especificado usar parâmetros de trabalho ou se o trabalho tiver uma tarefa de notebook com parâmetros, os nomes de sinalizador serão mapeados para os nomes dos parâmetros:

databricks bundle run hello_job -- --key1 value1 --key2 value2

Ou se o trabalho especificado não usa parâmetros de trabalho e o trabalho tem uma tarefa de arquivo Python ou uma tarefa de roda do Python:

databricks bundle run my_job -- value1 value2 value3

Para obter um exemplo de definição de trabalho com parâmetros, consulte Trabalho com parâmetros.

Executar scripts

Para executar scripts como testes de integração com as credenciais de autenticação configuradas de um pacote, você pode executar scripts embutidos ou executar um script definido na configuração do pacote. Os scripts são executados usando o mesmo contexto de autenticação configurado no pacote.

  • Acrescente um hífen duplo (--) após bundle run para executar scripts inline. Por exemplo, o comando a seguir gera o diretório de trabalho atual do usuário atual:

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Como alternativa, defina um script dentro do scripts mapeamento na configuração do pacote e, em seguida, use bundle run para executar o script:

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Para obter mais informações sobre scripts configuração, consulte scripts e scripts.

As informações de autenticação do bundle são passadas para processos-filhos usando variáveis de ambiente. Consulte a autenticação unificada do Databricks.

Argumentos

KEY

    O identificador exclusivo do recurso a ser executado (opcional)

Opções

--no-wait

    Não aguarde a conclusão da execução.

--restart

    Reinicie a execução se ela já estiver em execução.

Sinalizadores globais

Sinalizadores de trabalho

Os sinalizadores a seguir são sinalizadores de parâmetro no nível do trabalho. Consulte Configurar parâmetros do trabalho.

--params stringToString

    pares k=v separados por vírgulas para parâmetros de trabalho (padrão [])

Sinalizadores de tarefa de trabalho

Os sinalizadores a seguir são sinalizadores de parâmetro no nível da tarefa. Consulte Configurar parâmetros de tarefa. O Databricks recomenda usar parâmetros de nível de trabalho (--params) em parâmetros de nível de tarefa.

--dbt-commands strings

    Uma lista de comandos a serem executados para trabalhos com tarefas DBT.

--jar-params strings

    Uma lista de parâmetros para trabalhos com tarefas JAR do Spark.

--notebook-params stringToString

    Um mapa de chaves para valores para trabalhos com tarefas de notebook. (padrão [])

--pipeline-params stringToString

    Um mapa de chaves para valores para trabalhos com tarefas de pipeline. (padrão [])

--python-named-params stringToString

    Um mapa de chaves para valores para trabalhos com tarefas de roda do Python. (padrão [])

--python-params strings

    Uma lista de parâmetros para trabalhos com tarefas do Python.

--spark-submit-params strings

    Uma lista de parâmetros para trabalhos com tarefas de envio do Spark.

--sql-params stringToString

    Um mapa de chaves para valores para trabalhos com tarefas SQL. (padrão [])

Sinalizadores de pipeline

Os sinalizadores a seguir são sinalizadores de pipeline.

--full-refresh strings

    Lista de tabelas a serem redefinidas e recomputadas.

--full-refresh-all

    Execute uma redefinição completa do grafo e recompute.

--refresh strings

    Lista de tabelas a serem atualizadas.

--refresh-all

    Execute uma atualização completa do grafo.

--validate-only

    Execute uma atualização para validar a correção do grafo.

Exemplos

O exemplo a seguir executa um trabalho hello_job no destino padrão:

databricks bundle run hello_job

O exemplo a seguir executa um trabalho hello_job no contexto de um destino declarado com o nome dev:

databricks bundle run -t dev hello_job

O exemplo a seguir cancela e reinicia uma execução de trabalho existente:

databricks bundle run --restart hello_job

O exemplo a seguir executa um pipeline com atualização completa:

databricks bundle run my_pipeline --full-refresh-all

O exemplo a seguir executa um comando no contexto do pacote:

databricks bundle run -- echo "hello, world"

Esquema de pacote do databricks

Exiba o Esquema JSON para a configuração do pacote.

databricks bundle schema [flags]

Opções

Sinalizadores globais

Exemplos

O exemplo a seguir gera o esquema JSON para a configuração do pacote:

databricks bundle schema

Para gerar o esquema de configuração de pacote como um arquivo JSON, execute o bundle schema comando e redirecione a saída para um arquivo JSON. Por exemplo, você pode gerar um arquivo nomeado bundle_config_schema.json no diretório atual:

databricks bundle schema > bundle_config_schema.json

resumo do pacote do databricks

Gere um resumo da identidade e dos recursos de um pacote, incluindo links profundos para recursos para que você possa navegar facilmente até o recurso no workspace do Databricks.

databricks bundle summary [flags]

Tip

Você também pode usar bundle open para navegar até um recurso no workspace do Databricks. Veja o pacote do Databricks aberto.

Opções

--force-pull

    Ignorar o cache local e carregar o estado do workspace remoto

Sinalizadores globais

Exemplos

O exemplo a seguir gera um resumo dos recursos implantados de um pacote:

databricks bundle summary

A saída a seguir é o resumo de um pacote nomeado my_pipeline_bundle que define um trabalho e um pipeline:

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

sincronização de pacotes do databricks

Execute uma sincronização unidirecional das alterações de arquivo de um pacote em um diretório de sistema de arquivos local para um diretório dentro de um workspace remoto do Azure Databricks.

Note

Os comandos bundle sync não podem sincronizar alterações de arquivo de um diretório em um workspace remoto do Azure Databricks, de volta para um diretório dentro de um sistema de arquivos local.

databricks bundle sync [flags]

Os comandos databricks bundle sync funcionam da mesma forma que os comandos databricks sync e são fornecidos como uma conveniência de produtividade. Para obter informações sobre o uso de comando, consulte sync comando.

Opções

--dry-run

    Simular a execução da sincronização sem fazer alterações reais

--full

    Executar sincronização completa (o padrão é incremental)

--interval duration

    Intervalo de sondagem do sistema de arquivos (para --watch) (padrão 1s)

--output type

    Tipo do formato de saída

--watch

    Monitorar o sistema de arquivos local para mudanças

Sinalizadores globais

Exemplos

O exemplo a seguir executa uma sincronização de execução seca:

databricks bundle sync --dry-run

O exemplo a seguir observa as alterações e sincronizações automaticamente:

databricks bundle sync --watch

O exemplo a seguir executa uma sincronização completa:

databricks bundle sync --full

validar o pacote do databricks

Os arquivos de configuração do pacote de validação estão sintaticamente corretos.

databricks bundle validate [flags]

Por padrão, esse comando retorna um resumo da identidade do pacote.

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Note

O bundle validate comando gera avisos se as propriedades do recurso são definidas nos arquivos de configuração de pacote que não são encontrados no esquema do objeto correspondente.

Se você quiser apenas gerar um resumo da identidade e dos recursos do pacote, use o resumo do pacote.

Opções

Sinalizadores globais

Exemplos

O exemplo a seguir valida a configuração do pacote:

databricks bundle validate

Sinalizadores globais

--debug

  Optar por habilitar o registro de log de depuração.

-h ou --help

    Exiba ajuda para a CLI do Databricks ou o grupo de comandos relacionado ou o comando relacionado.

--log-file corda

    Uma cadeia de caracteres que representa o arquivo onde serão gravados os logs de saída. Se esse sinalizador não for especificado, o padrão será gravar logs de saída no stderr.

--log-format formato

    O tipo de formato de log, text ou json. O valor padrão é text.

--log-level corda

    Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desabilitado.

-o, --output tipo

    O tipo de saída do comando, text ou json. O valor padrão é text.

-p, --profile corda

    O nome do perfil no arquivo ~/.databrickscfg, que deverá ser usado para executar o comando. Se esse sinalizador não for especificado, se existir, o perfil nomeado DEFAULT será usado.

--progress-format formato

    O formato para exibir logs de progresso: default, append, inplace ou json

-t, --target corda

    Se aplicável, o destino do pacote a ser usado

--var strings

    definir valores para variáveis definidas na configuração do pacote. Exemplo: --var="foo=bar"