Share via


Usare JupyterLab con Databricks Connessione per Python

Nota

Questo articolo illustra databricks Connessione per Databricks Runtime 13.0 e versioni successive.

Questo articolo illustra come usare databricks Connessione per Python con JupyterLab. Databricks Connessione consente di connettere i server notebook, gli IDE e altre applicazioni personalizzate ai cluster di Azure Databricks. Vedere Che cos'è Databricks Connessione?.

Nota

Prima di iniziare a usare Databricks Connessione, è necessario configurare il client databricks Connessione.

Per usare Databricks Connessione con JupyterLab e Python, seguire queste istruzioni.

  1. Per installare JupyterLab, con l'ambiente virtuale Python attivato, eseguire il comando seguente dal terminale o dal prompt dei comandi:

    pip3 install jupyterlab
    
  2. Per avviare JupyterLab nel Web browser, eseguire il comando seguente dall'ambiente virtuale Python attivato:

    jupyter lab
    

    Se JupyterLab non viene visualizzato nel Web browser, copiare l'URL che inizia con localhost o 127.0.0.1 dall'ambiente virtuale e immetterlo nella barra degli indirizzi del Web browser.

  3. Creare un nuovo notebook: in JupyterLab fare clic su File Nuovo notebook nel menu principale, selezionare Python 3 (ipykernel) e fare clic su Seleziona.>>

  4. Nella prima cella del notebook immettere il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzare DatabricksSession almeno come illustrato nel codice di esempio.

  5. Per eseguire il notebook, fare clic su Esegui > tutte le celle. Tutto il codice viene eseguito localmente, mentre tutto il codice che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.

  6. Per eseguire il debug del notebook, fare clic sull'icona del bug (Abilita debugger) accanto a Python 3 (ipykernel) sulla barra degli strumenti del notebook. Impostare uno o più punti di interruzione e quindi fare clic su Esegui > tutte le celle. Tutto il codice viene sottoposto a debug in locale, mentre tutto il codice Spark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.

  7. Per arrestare JupyterLab, fare clic su Arresta file>. Se il processo JupyterLab è ancora in esecuzione nel terminale o nel prompt dei comandi, arrestare questo processo premendo Ctrl + c e immettendo y per confermare.

Per istruzioni di debug più specifiche, vedere Debugger.