Partager via


Exporter et importer des notebooks Databricks

Cette page explique comment importer et exporter des notebooks dans Azure Databricks et les formats de notebooks pris en charge par Azure Databricks.

Formats de notebook pris en charge

Databricks peut importer et exporter des notebooks aux formats suivants :

  • Fichier source : fichier contenant uniquement des instructions de code source avec l’extension .scala, .py, .sql ou .r.
  • HTML : notebook Azure Databricks avec l’extension .html.
  • Archive .dbc Databricks.
  • Notebook IPython : notebook Jupyter avec l’extension .ipynb.
  • RMarkdown : document R Markdown avec l’extension .Rmd.

Importer un notebook

Vous pouvez importer un notebook externe à partir d’une URL ou d’un fichier. Vous pouvez également importer une archive ZIP des notebooks exportés en bloc à partir d’un espace de travail Azure Databricks.

  1. Dans la barre latérale, cliquez sur l’icône d’espace de travail Espace de travail. Effectuez l’une des actions suivantes :
    • Cliquez avec le bouton droit sur un dossier, puis sélectionnez Importer.
    • Pour importer un notebook au niveau supérieur du dossier de l’espace de travail actif, cliquez sur le menu des trois points en haut à droite, puis sélectionnez Importer.
  2. Spécifiez l’URL ou accédez à un fichier contenant un format externe pris en charge ou une archive ZIP des notebooks exportés à partir d’un espace de travail Azure Databricks.
  3. Cliquez sur Importer.
    • Si vous choisissez un seul notebook, il est exporté dans le dossier actuel.
    • Si vous choisissez une archive DBC ou ZIP, sa structure de dossiers est recréée dans le dossier actuel et chaque notebook est importé.

Importer un fichier et le convertir en notebook

Vous pouvez convertir des scripts Python, SQL, Scala et R en notebooks à une seule cellule en ajoutant un commentaire à la première cellule du fichier :

Python

# Databricks notebook source

SQL

-- Databricks notebook source

Scala

// Databricks notebook source

R

# Databricks notebook source

Pour définir des cellules dans un script, utilisez le commentaire spécial montré ci-dessous. Quand vous importez le script dans Databricks, les cellules sont créées telles qu’elles sont marquées par les lignes COMMAND montrées ici.

Python

# COMMAND ----------

SQL

-- COMMAND ----------

Scala

// COMMAND ----------

R

# COMMAND ----------

Exporter des notebooks

Notes

Quand vous exportez un notebook au format HTML, en tant que notebook IPython (.ipynb) ou en tant qu’archive (DBC), et que vous n’avez pas effacé les résultats des commandes, les sorties sont incluses dans l’exportation.

Pour exporter un notebook, sélectionnez Fichier > Exporter dans la barre d’outils du notebook, puis sélectionnez le format d’exportation souhaité.

Pour exporter tous les dossiers dans un dossier d’espace de travail en tant qu’archive ZIP :

  1. Dans la barre latérale, cliquez sur l’icône d’espace de travail Espace de travail.
  2. Cliquez avec le bouton droit sur le dossier, puis sélectionnez Exporter.
  3. Sélectionner le format d’exportation :
    • Archive DBC : exporter une archive Databricks, un format binaire incluant les métadonnées et les résultats des commandes de notebook.
    • Fichier source : exporter une archive ZIP des fichiers sources du notebook, qui peuvent être importés dans un espace de travail Azure Databricks, utilisés dans un pipeline CI/CD, ou affichés en tant que fichiers sources dans la langue par défaut de chaque notebook. Les résultats de la commande de notebook ne sont pas inclus.
    • Archive HTML : exporter une archive ZIP des fichiers HTML. Le fichier HTML de chaque notebook peut être importé dans un espace de travail Azure Databricks ou affiché au format HTML. Les résultats de la commande de notebook sont inclus.