分享方式:


搭配適用於 Python 的 Databricks Connect 使用傳統 Jupyter Notebook

注意

本文涵蓋 Databricks Runtime 13.3 LTS 和更新版本適用的 Databricks Connect。

本文涵蓋如何使用適用於 Python 的 Databricks Connect 搭配 傳統 Jupyter Notebook。 Databricks Connect 可讓您將熱門筆記本伺服器、IDE 和其他自定義應用程式連線到 Azure Databricks 叢集。 請參閱 什麼是 Databricks Connect?

注意

開始使用 Databricks Connect 之前,您必須先 設定 Databricks Connect 用戶端

若要搭配傳統 Jupyter Notebook 和 Python 使用 Databricks Connect,請遵循這些指示。

  1. 若要安裝傳統 Jupyter Notebook,請啟動 Python 虛擬環境,從終端機或命令提示字元執行下列命令:

    pip3 install notebook
    
  2. 若要在網頁瀏覽器中啟動傳統 Jupyter Notebook,請從您啟動的 Python 虛擬環境執行下列命令:

    jupyter notebook
    

    如果傳統 Jupyter Notebook 未出現在網頁瀏覽器中,請複製開頭localhost127.0.0.1為 虛擬環境的 URL,然後在網頁瀏覽器的網址列中輸入它。

  3. 建立新的筆記本:在傳統 Jupyter Notebook 中,按兩下 [檔案] 索引卷標上的 [新增 > Python 3](ipykernel)。

  4. 在筆記本的第一個數據格中 ,輸入範例程式代碼或您自己的程序代碼 。 如果您使用自己的程式代碼,您至少必須初始化DatabricksSession,如範例程式代碼所示

  5. 若要執行筆記本,請按兩下 [ 儲存格 > 全部執行]。 所有 Python 程式代碼都會在本機執行,而涉及 DataFrame 作業的所有 PySpark 程式代碼都會在遠端 Azure Databricks 工作區的叢集上執行,並執行回應會傳回給本機呼叫者。

  6. 若要對筆記本進行偵錯,請在筆記本開頭新增下列程式代碼行:

    from IPython.core.debugger import set_trace

    然後呼叫 set_trace() 以在該筆記本執行點輸入偵錯語句。 所有 Python 程式代碼都會在本機偵錯,而所有 PySpark 程式代碼都會繼續在遠端 Azure Databricks 工作區中的叢集上執行。 核心 Spark 引擎程式代碼無法直接從客戶端進行偵錯。

  7. 若要關閉傳統 Jupyter Notebook,請按兩下 [ 檔案 > 關閉並停止]。 如果傳統 Jupyter Notebook 程式仍在終端機或命令提示字元中執行,請按 Ctrl + c ,然後輸入 y 以確認來停止此程式。