Dela via


Använda klassisk Jupyter Notebook med Databricks Connect för Python

Kommentar

Den här artikeln beskriver Databricks Connect för Databricks Runtime 13.3 LTS och senare.

Den här artikeln beskriver hur du använder Databricks Connect för Python med klassiska Jupyter Notebook. Med Databricks Connect kan du ansluta populära notebook-servrar, IDE:er och andra anpassade program till Azure Databricks-kluster. Se Vad är Databricks Connect?.

Kommentar

Innan du börjar använda Databricks Connect måste du konfigurera Databricks Connect-klienten.

Följ dessa instruktioner om du vill använda Databricks Connect med den klassiska Jupyter Notebook och Python.

  1. Om du vill installera den klassiska Jupyter Notebook kör du följande kommando från terminalen eller kommandotolken när den virtuella Python-miljön är aktiverad:

    pip3 install notebook
    
  2. Starta den klassiska Jupyter Notebook i webbläsaren genom att köra följande kommando från den aktiverade virtuella Python-miljön:

    jupyter notebook
    

    Om den klassiska Jupyter Notebook inte visas i webbläsaren kopierar du url:en som börjar med localhost eller 127.0.0.1 från den virtuella miljön och anger den i webbläsarens adressfält.

  3. Skapa en ny notebook-fil: Klicka på Ny > Python 3 (ipykernel)fliken Filer i klassiska Jupyter Notebook.

  4. I anteckningsbokens första cell anger du antingen exempelkoden eller din egen kod. Om du använder din egen kod måste du åtminstone initiera DatabricksSession enligt exempelkoden.

  5. Om du vill köra anteckningsboken klickar du på Cell > kör alla. All Python-kod körs lokalt, medan all PySpark-kod som involverar DataFrame-åtgärder körs på klustret på den fjärranslutna Azure Databricks-arbetsytan och körningssvar skickas tillbaka till den lokala anroparen.

  6. Om du vill felsöka notebook-filen lägger du till följande kodrad i början av anteckningsboken:

    from IPython.core.debugger import set_trace

    Anropa sedan set_trace() för att ange felsökningsinstruktioner vid den tidpunkten för notebook-körningen. All Python-kod debuggas lokalt, medan all PySpark-kod fortsätter att köras på klustret på den fjärranslutna Azure Databricks-arbetsytan. Spark-motorns kärnkod kan inte kopplas direkt från klienten.

  7. Om du vill stänga av den klassiska Jupyter Notebook klickar du på Stäng och stoppa fil>. Om den klassiska Jupyter Notebook-processen fortfarande körs i terminalen eller kommandotolken stoppar du den här processen genom att trycka på Ctrl + c och sedan ange y för att bekräfta.