Condividi tramite


Usare jupyter notebook classico con Databricks Connect per Python

Nota

Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.

Questo articolo illustra come usare Databricks Connect per Python con Jupyter Notebook classico. Databricks Connect consente di connettere i server notebook, gli IDE e altre applicazioni personalizzate più diffusi ai cluster di Azure Databricks. Vedere Che cos'è Databricks Connect?.

Nota

Prima di iniziare a usare Databricks Connect, è necessario configurare il client Databricks Connect.

Per usare Databricks Connect with classic Jupyter Notebook and Python (Connettersi con Jupyter Notebook classico e Python), seguire queste istruzioni.

  1. Per installare Jupyter Notebook classico, con l'ambiente virtuale Python attivato, eseguire il comando seguente dal terminale o dal prompt dei comandi:

    pip3 install notebook
    
  2. Per avviare jupyter notebook classico nel Web browser, eseguire il comando seguente dall'ambiente virtuale Python attivato:

    jupyter notebook
    

    Se Jupyter Notebook classico non viene visualizzato nel Web browser, copiare l'URL che inizia con localhost o 127.0.0.1 dall'ambiente virtuale e immetterlo nella barra degli indirizzi del Web browser.

  3. Creare un nuovo notebook: nel notebook jupyter classico fare clic su Nuovo Python 3 (ipykernel) nella scheda File>.

  4. Nella prima cella del notebook immettere il codice di esempio o il proprio codice. Se si usa il proprio codice, è necessario inizializzare DatabricksSession almeno come illustrato nel codice di esempio.

  5. Per eseguire il notebook, fare clic su Cella > Esegui tutto. Tutto il codice Python viene eseguito localmente, mentre tutto il codice PySpark che coinvolge le operazioni del dataframe viene eseguito nel cluster nell'area di lavoro remota di Azure Databricks e le risposte di esecuzione vengono inviate al chiamante locale.

  6. Per eseguire il debug del notebook, aggiungere la riga di codice seguente all'inizio del notebook:

    from IPython.core.debugger import set_trace

    Chiamare set_trace() quindi per immettere le istruzioni di debug a quel punto dell'esecuzione del notebook. Tutto il codice Python viene sottoposto a debug in locale, mentre tutto il codice PySpark continua a essere eseguito nel cluster nell'area di lavoro remota di Azure Databricks. Il codice principale del motore Spark non può essere sottoposto a debug direttamente dal client.

  7. Per arrestare jupyter Notebook classico, fare clic su Chiudi file > e interrompi. Se il processo classico di Jupyter Notebook è ancora in esecuzione nel terminale o nel prompt dei comandi, arrestare questo processo premendo Ctrl + c e quindi immettendo y per confermare.