Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo lista os comandos da Paleta de Comandos da extensão do Databricks para Visual Studio Code. Confira O que é a extensão do Databricks para Visual Studio Code?.
Referência do comando
A extensão do Databricks para Visual Studio Code adiciona os comandos a seguir à Paleta de Comandos do Visual Studio Code. Confira também Paleta de Comandos na documentação do Visual Studio Code.
| Comando | Descrição |
|---|---|
Databricks: Change Python environment |
Alterar o ambiente virtual do Python |
Databricks: Clear pipeline diagnostics |
Diagnósticos claros de pipeline |
Databricks: Configure autocomplete for Databricks globals |
Habilita o IntelliSense no editor de código do Visual Studio Code para PySpark, Databricks Utilities e globais relacionados, como spark e dbutils. Para obter mais informações sobre esse recurso, confira Conclusão do código do PySpark e do Databricks Utilities. |
Databricks: Configure cluster |
Move o foco para a Paleta de Comandos para criar, selecionar ou alterar o cluster do Azure Databricks a ser usado no projeto atual. Consulte Selecione a computação para executar o código e as tarefas. |
Databricks: Debug current file with Databricks Connect |
Depure o arquivo atual com o Databricks Connect. |
Databricks: Deploy bundle |
Implante o pacote no workspace do Databricks. |
Databricks: Deploy the bundle and run a resource |
Implante o pacote no workspace do Databricks e execute um recurso. Por padrão, esse comando apresenta uma lista de recursos a serem executados, mas você pode personalizar os argumentos de comando para executar o comando com um tipo de recurso específico. Confira Personalizar atalhos de teclado ou argumentos de comando. |
Databricks: Destroy bundle |
Destrua o pacote. |
Databricks: Detach cluster |
Remove a referência ao cluster do Azure Databricks do projeto atual. |
Databricks: Focus on Bundle Resource Explorer View |
Move o foco do painel Databricks para a exibição Gerenciador de Recursos do Pacote. Consulte Gerenciador de Recursos do Pacote. |
Databricks: Focus on Bundle Variables View |
Move o foco do painel Databricks para a Exibição de Variáveis do Pacote. Consulte Exibição de Variáveis de Pacote. |
Databricks: Focus on Configuration View |
Move o foco do painel Databricks para a exibição Configuração. |
Databricks: Force deploy bundle |
Ignore os avisos e force uma implantação do pacote no workspace do Databricks. |
Databricks: Force destroy bundle |
Ignore os avisos e force a destruição do pacote. |
Databricks: Initialize new project |
Inicialize o fluxo de trabalho de criação para um novo projeto do Databricks no Visual Studio Code. |
Databricks: Logout |
Redefine o painel do Databricks para mostrar os botões Configurar Databricks e Mostrar Início Rápido no modo de exibição Configuração. Qualquer conteúdo no arquivo .databricks/project.json do projeto atual também é redefinido. |
Databricks: Open Databricks configuration file |
Abre o arquivo de perfis de configuração do Azure Databricks no local padrão para o projeto atual. Confira Configurar projetos do Databricks usando a extensão do Databricks para Visual Studio Code. |
Databricks: Open full logs |
Abre a pasta que contém os arquivos de log do aplicativo que a extensão do Databricks para Visual Studio Code grava no computador de desenvolvimento. |
Databricks: Override bundle variables |
Substitui variáveis do pacote. |
Databricks: Refresh python environment status |
Atualiza a exibição Ambiente do Python no painel Databricks. |
Databricks: Refresh remote state |
Atualiza a configuração do pacote para o destino. |
Databricks: Reinstall Databricks Connect |
Reinstale o Databricks Connect. Confira Depurar código usando o Databricks Connect da extensão do Databricks para Visual Studio Code. |
Databricks: Reset bundle variables to default values |
Redefine os valores das variáveis do pacote. |
Databricks: Run current file with Databricks Connect |
Executa o arquivo atual com o Databricks Connect. Confira Depurar código usando o Databricks Connect da extensão do Databricks para Visual Studio Code. |
Databricks: Select a Databricks Asset Bundle target |
Selecione um destino de pacote. Consulte Alterar o workspace de implantação de destino. |
Databricks: Show bundle logs |
Mostra os logs do pacote. Confira Exibir saída de log do Databricks. |
Databricks: Show Quickstart |
Mostra o arquivo de Início Rápido no editor. |
Databricks: Sign in to Databricks workspace |
Iniciar sessão em um espaço de trabalho. |
Databricks: Start Cluster |
Inicia o cluster se ele já estiver parado. |
Databricks: Start synchronization |
Começa a sincronizar o código do projeto atual com o workspace do Azure Databricks. Esse comando executa uma sincronização incremental. |
Databricks: Start synchronization (full sync) |
Começa a sincronizar o código do projeto atual com o workspace do Azure Databricks. Esse comando executa uma sincronização completa, mesmo que uma sincronização incremental seja possível. |
Databricks: Stop Cluster |
Interromperá o cluster se ele já estiver em execução. |
Databricks: Stop synchronization |
Para de sincronizar o código do projeto atual com o workspace do Azure Databricks. |
Databricks: Verify Databricks notebook init scripts |
Verifique os scripts de inicialização do notebook do Databricks. |
Conclusão do código do Databricks Utilities e do PySpark
Esse artigo descreve como habilitar a conclusão de código de utilitários PySpark e Databricks para a extensão do Databricks para Visual Studio Code. ConsulteO que é a extensão do Databricks para Visual Studio Code?
Essas informações pressupõem que você já tenha instalado e configurado a extensão do Databricks para Visual Studio Code. Confira Instalar a extensão do Databricks para Visual Studio Code.
Para habilitar o IntelliSense (também conhecido como preenchimento de código) no editor de código Visual Studio Code para PySpark, Databricks Utilities e recursos globais relacionados, como spark e dbutils, siga os procedimentos abaixo com o projeto aberto:
- Na Paleta de Comandos (Exibir > Paleta de Comandos), digite
>Databricks: Configure autocomplete for Databricks globalse pressione Enter. - Siga os prompts na tela para permitir que a extensão do Databricks para Visual Studio Code instale o PySpark em seu projeto e adicione ou modifique o arquivo
__builtins__.pyido projeto para habilitar o Databricks Utilities.
Agora você pode usar globais como spark e dbutils em seu código sem declarar instruções import relacionadas com antecedência.
Personalizar atalhos de teclado ou argumentos de comando
Para especificar um atalho de teclado para um comando ou para definir argumentos para um comando, use o editor de Atalhos de Teclado Visual Studio Code ou adicione uma nova entrada diretamente à matriz de associações de teclas JSON.
Por exemplo, para configurar o comando Implantar o pacote e executar um recurso a fim de validar my_pipeline, adicione o seguinte à matriz de associações de teclas:
{
// Replace with your desired shortcut
"key": "ctrl+shift+x",
"command": "databricks.bundle.deployAndRunFromInput",
"args": {
// "jobs" or "pipelines"
"resourceType": "pipelines",
// The key of the pipeline or job you want to run, as defined in your asset bundle configuration
"resourceKey": "my_pipeline",
// Any flags that will be passed to the "databricks bundle run" command
"args": "--validate-only"
}
}