Usare Eclipse con PyDev e Databricks Connect per Python
Nota
Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.
Questo articolo illustra come usare Databricks Connect per Scala ed Eclipse con PyDev. Databricks Connect consente di connettere IDE, server notebook e altre applicazioni personalizzate ai cluster Di Azure Databricks. Vedere Che cos'è Databricks Connect?.
Nota
Prima di iniziare a usare Databricks Connect, è necessario configurare il client Databricks Connect.
Per usare Databricks Connect ed Eclipse con PyDev, seguire queste istruzioni.
- Avviare Eclipse.
- Creare un progetto: fare clic su File Nuovo progetto PyDev PyDev>, quindi fare clic su Avanti.> > >
- Specificare un nome di progetto.
- Per Contenuto progetto specificare il percorso dell'ambiente virtuale Python.
- Fare clic su Configurare un interprete prima di procedere.
- Fare clic su Configurazione manuale.
- Fare clic su Nuovo > cerca python/pypy exe.
- Passare a e selezionare il percorso completo dell'interprete Python a cui si fa riferimento dall'ambiente virtuale e quindi fare clic su Apri.
- Nella finestra di dialogo Seleziona interprete fare clic su OK.
- Nella finestra di dialogo Selezione necessaria fare clic su OK.
- Nella finestra di dialogo Preferenze fare clic su Applica e chiudi.
- Nella finestra di dialogo Progetto PyDev fare clic su Fine.
- Fare clic su Apri prospettiva.
- Aggiungere al progetto un file di codice Python (
.py
) che contiene il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzareDatabricksSession
almeno come illustrato nel codice di esempio. - Con il file di codice Python aperto, impostare eventuali punti di interruzione in cui si vuole sospendere il codice durante l'esecuzione.
- Per eseguire il codice, fare clic su Esegui>. Tutto il codice Python viene eseguito localmente, mentre tutto il codice PySpark che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.
- Per eseguire il debug del codice, fare clic su Esegui > debug. Tutto il codice Python viene sottoposto a debug in locale, mentre tutto il codice PySpark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.
Per istruzioni di esecuzione e debug più specifiche, vedere Esecuzione di un programma.