Usare JupyterLab con Databricks Connect per Python
Nota
Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.
Questo articolo illustra come usare Databricks Connect per Python con JupyterLab. Databricks Connect consente di connettere i server notebook, gli IDE e altre applicazioni personalizzate più diffusi ai cluster di Azure Databricks. Vedere Che cos'è Databricks Connect?.
Nota
Prima di iniziare a usare Databricks Connect, è necessario configurare il client Databricks Connect.
Per usare Databricks Connect with JupyterLab and Python (Connettersi a JupyterLab e Python), seguire queste istruzioni.
Per installare JupyterLab, con l'ambiente virtuale Python attivato, eseguire il comando seguente dal terminale o dal prompt dei comandi:
pip3 install jupyterlab
Per avviare JupyterLab nel Web browser, eseguire il comando seguente dall'ambiente virtuale Python attivato:
jupyter lab
Se JupyterLab non viene visualizzato nel Web browser, copiare l'URL che inizia con
localhost
o127.0.0.1
dall'ambiente virtuale e immetterlo nella barra degli indirizzi del Web browser.Creare un nuovo notebook: in JupyterLab fare clic su File Nuovo notebook nel menu principale, selezionare Python 3 (ipykernel) e fare clic su Seleziona.> >
Nella prima cella del notebook immettere il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzare
DatabricksSession
almeno come illustrato nel codice di esempio.Per eseguire il notebook, fare clic su Esegui > tutte le celle. Tutto il codice viene eseguito localmente, mentre tutto il codice che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.
Per eseguire il debug del notebook, fare clic sull'icona del bug (Abilita debugger) accanto a Python 3 (ipykernel) sulla barra degli strumenti del notebook. Impostare uno o più punti di interruzione e quindi fare clic su Esegui > tutte le celle. Tutto il codice viene sottoposto a debug in locale, mentre tutto il codice Spark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.
Per arrestare JupyterLab, fare clic su Arresta file>. Se il processo JupyterLab è ancora in esecuzione nel terminale o nel prompt dei comandi, arrestare questo processo premendo
Ctrl + c
e immettendoy
per confermare.
Per istruzioni di debug più specifiche, vedere Debugger.