Use o Eclipse com PyDev e Databricks Connect para Python
Nota
Este artigo aborda o Databricks Connect for Databricks Runtime 13.3 LTS e superior.
Este artigo aborda como usar o Databricks Connect para Scala e Eclipse com o PyDev. O Databricks Connect permite conectar IDEs populares, servidores de notebook e outros aplicativos personalizados a clusters do Azure Databricks. Consulte O que é Databricks Connect?.
Nota
Antes de começar a usar o Databricks Connect, você deve configurar o cliente Databricks Connect.
Para usar o Databricks Connect e o Eclipse com o PyDev, siga estas instruções.
- Abra o Eclipse.
- Criar um projeto: clique em Arquivo Novo Projeto PyDev Projeto PyDev> e, em seguida, clique em Avançar.> > >
- Especifique um nome de projeto.
- Para Conteúdo do projeto, especifique o caminho para seu ambiente virtual Python.
- Clique em Configurar um intérprete antes de processar.
- Clique em Configuração manual.
- Clique em New > Browse for python/pypy exe.
- Procure e selecione o caminho completo para o interpretador Python referenciado no ambiente virtual e clique em Abrir.
- Na caixa de diálogo Selecionar intérprete, clique em OK.
- Na caixa de diálogo Seleção necessária, clique em OK.
- Na caixa de diálogo Preferências, clique em Aplicar e Fechar.
- Na caixa de diálogo Projeto PyDev, clique em Concluir.
- Clique em Abrir perspetiva.
- Adicione ao projeto um arquivo de código Python (
.py
) que contenha o código de exemplo ou seu próprio código. Se você usar seu próprio código, no mínimo você deve inicializarDatabricksSession
como mostrado no código de exemplo. - Com o arquivo de código Python aberto, defina quaisquer pontos de interrupção onde você deseja que seu código pause durante a execução.
- Para executar o código, clique em Executar > Executar. Todo o código Python é executado localmente, enquanto todo o código PySpark envolvendo operações DataFrame é executado no cluster no espaço de trabalho remoto do Azure Databricks e as respostas de execução são enviadas de volta ao chamador local.
- Para depurar o código, clique em Executar > Depuração. Todo o código Python é depurado localmente, enquanto todo o código PySpark continua a ser executado no cluster no espaço de trabalho remoto do Azure Databricks. O código principal do mecanismo Spark não pode ser depurado diretamente do cliente.
Para obter instruções mais específicas de execução e depuração, consulte Executando um programa.