Condividi tramite


Usare Eclipse con PyDev e Databricks Connect per Python

Nota

Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.

Questo articolo illustra come usare Databricks Connect per Scala ed Eclipse con PyDev. Databricks Connect consente di connettere IDE, server notebook e altre applicazioni personalizzate ai cluster Di Azure Databricks. Vedere Che cos'è Databricks Connect?.

Nota

Prima di iniziare a usare Databricks Connect, è necessario configurare il client Databricks Connect.

Per usare Databricks Connect ed Eclipse con PyDev, seguire queste istruzioni.

  1. Avviare Eclipse.
  2. Creare un progetto: fare clic su File Nuovo progetto PyDev PyDev>, quindi fare clic su Avanti.> > >
  3. Specificare un nome di progetto.
  4. Per Contenuto progetto specificare il percorso dell'ambiente virtuale Python.
  5. Fare clic su Configurare un interprete prima di procedere.
  6. Fare clic su Configurazione manuale.
  7. Fare clic su Nuovo > cerca python/pypy exe.
  8. Passare a e selezionare il percorso completo dell'interprete Python a cui si fa riferimento dall'ambiente virtuale e quindi fare clic su Apri.
  9. Nella finestra di dialogo Seleziona interprete fare clic su OK.
  10. Nella finestra di dialogo Selezione necessaria fare clic su OK.
  11. Nella finestra di dialogo Preferenze fare clic su Applica e chiudi.
  12. Nella finestra di dialogo Progetto PyDev fare clic su Fine.
  13. Fare clic su Apri prospettiva.
  14. Aggiungere al progetto un file di codice Python (.py) che contiene il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzare DatabricksSession almeno come illustrato nel codice di esempio.
  15. Con il file di codice Python aperto, impostare eventuali punti di interruzione in cui si vuole sospendere il codice durante l'esecuzione.
  16. Per eseguire il codice, fare clic su Esegui>. Tutto il codice Python viene eseguito localmente, mentre tutto il codice PySpark che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.
  17. Per eseguire il debug del codice, fare clic su Esegui > debug. Tutto il codice Python viene sottoposto a debug in locale, mentre tutto il codice PySpark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.

Per istruzioni di esecuzione e debug più specifiche, vedere Esecuzione di un programma.