Esportare e importare notebook di Databricks

Questa pagina descrive come importare ed esportare notebook in Azure Databricks e i formati di notebook supportati da Azure Databricks.

Formati di notebook supportati

Databricks può importare ed esportare notebook nei formati seguenti:

  • File di origine: file contenente solo istruzioni di codice sorgente con l'estensione .scala, .py, .sqlo .r.
  • HTML: un notebook di Azure Databricks con l'estensione .html.
  • Archivio di Databricks .dbc .
  • Notebook IPython: notebook jupyter con l'estensione .ipynb.
  • RMarkdown: documento R Markdown con l'estensione .Rmd.

Importare un notebook

È possibile importare un notebook esterno da un URL o da un file. È anche possibile importare un archivio ZIP di notebook esportati in blocco da un'area di lavoro di Azure Databricks.

  1. Fare clic su Area di lavoro Icona area di lavoro nella barra laterale. Eseguire una delle operazioni seguenti:
    • Fare clic con il pulsante destro del mouse su una cartella e scegliere Importa.
    • Per importare un notebook a livello superiore della cartella dell'area di lavoro corrente, fare clic sul menu kebab in alto a destra e selezionare Importa.
  2. Specificare l'URL o passare a un file contenente un formato esterno supportato o un archivio ZIP dei notebook esportati da un'area di lavoro di Azure Databricks.
  3. Fare clic su Importa.
    • Se si sceglie un singolo notebook, viene esportato nella cartella corrente.
    • Se si sceglie un archivio DBC o ZIP, la relativa struttura di cartelle viene ricreata nella cartella corrente e ogni notebook viene importato.

Importare un file e convertirlo in un notebook

È possibile convertire script Python, SQL, Scala e R in notebook a cella singola aggiungendo un commento alla prima cella del file:

Python

# Databricks notebook source

SQL

-- Databricks notebook source

Scala

// Databricks notebook source

R

# Databricks notebook source

Per definire le celle in uno script, usare il commento speciale illustrato di seguito. Quando si importa lo script in Databricks, le celle vengono create come contrassegnate dalle COMMAND righe visualizzate.

Python

# COMMAND ----------

SQL

-- COMMAND ----------

Scala

// COMMAND ----------

R

# COMMAND ----------

Esportare notebook

Nota

Quando si esporta un notebook come HTML, iPython notebook (.ipynb) o l'archivio (DBC) e non sono stati cancellati gli output dei comandi, gli output vengono inclusi nell'esportazione.

Per esportare un notebook, selezionare Esportazione file > nella barra degli strumenti del notebook e selezionare il formato di esportazione.

Per esportare tutte le cartelle in una cartella dell'area di lavoro come archivio ZIP:

  1. Fare clic su Area di lavoro Icona area di lavoro nella barra laterale.
  2. Fare clic con il pulsante destro del mouse sulla cartella e scegliere Esporta.
  3. Selezionare il formato di esportazione:
    • Archivio DBC: esportare un archivio di Databricks, un formato binario che include i metadati e gli output dei comandi del notebook.
    • File di origine: esportare un archivio ZIP dei file di origine del notebook, che possono essere importati in un'area di lavoro di Azure Databricks, usata in una pipeline CI/CD o come file di origine nella lingua predefinita di ogni notebook. Gli output dei comandi del notebook non sono inclusi.
    • Archivio HTML: esportare un archivio ZIP di file HTML. Ogni file HTML di ogni notebook può essere importato in un'area di lavoro di Azure Databricks o visualizzata come HTML. Gli output dei comandi del notebook sono inclusi.