Share via


Lesen von per Databricks-zu-Databricks Delta Sharing freigegebenen Daten (für Empfänger)

In diesem Artikel wird beschrieben, wie Sie Daten lesen, die unter Verwendung des Databricks-zu-Databricks Delta Sharing-Protokolls für Sie freigegeben wurden, in dem Databricks eine sichere Verbindung für die Datenfreigabe verwaltet. Im Gegensatz zum Delta Sharing-Protokolle für offene Freigaben erfordert das Databricks-to-Databricks-Protokoll keine Datei mit Anmeldeinformationen (tokenbasierte Sicherheit).

Für die Databricks-zu-Databricks-Freigabe ist es erforderlich, dass Sie als Empfänger Zugriff auf einen Databricks-Arbeitsbereich haben, der für Unity-Katalog aktiviert ist.

Wenn Sie keinen Databricks-Arbeitsbereich haben, der für Unity-Katalog aktiviert ist, müssen Daten mit dem Delta Sharing-Protokoll für offene Freigaben für Sie freigegeben werden. Dieser Artikel trifft dann auf Sie zu. Weitere Informationen finden Sie unter Lesen von Daten, die über das Delta Sharing-Protokoll für offene Freigaben (für Empfänger) freigegeben wurden.

Wie stelle ich meinem Team freigegebene Daten zur Verfügung?

Um Daten und Notebooks zu lesen, die mit dem Databricks-to-Databricks-Protokoll für Sie freigegeben wurden, müssen Sie ein Benutzer in einem Databricks-Arbeitsbereich sein, der für Unity Catalog aktiviert ist. Ein Mitglied Ihres Teams gibt einen eindeutigen Bezeichner für Ihren Unity Katalog Metastore an den Datenanbieter weiter, und der Datenanbieter verwendet einen Bezeichner, um eine sichere Freigabeverbindung für Ihre Organisation zu erstellen. Die freigegebenen Daten werden dann für den Lesezugriff in Ihrem Arbeitsbereich zur Verfügung gestellt, und alle Updates, die der Datenanbieter an den freigegebenen Tabellen, Ansichten, Volumes und Partitionen vornimmt, werden in Ihrem Arbeitsbereich nahezu in Echtzeit widergespiegelt.

Hinweis

Updates an freigegebenen Datentabellen, Ansichten und Volumes werden nahezu in Echtzeit in Ihrem Arbeitsbereich angezeigt. Spaltenänderungen (Hinzufügen, Umbenennen, Löschen) werden jedoch möglicherweise bis zu eine Minute lang nicht im c-Explorer angezeigt. Ebenso werden neue Freigaben und Updates für Freigaben (z. B. das Hinzufügen neuer Tabellen zu einer Freigabe) eine Minute lang zwischengespeichert, bevor sie Ihnen zum Anzeigen und Abfragen zur Verfügung stehen.

So lesen Sie Daten, die für Sie freigegeben wurden:

  1. Benutzer*innen in Ihrem Team finden die Freigabe – den Container für die Tabellen, Ansichten, Volumes und Notebooks, die für Sie freigegeben wurden – und verwenden diese Freigabe, um einen Katalog zu erstellen – den Container auf oberster Ebene für alle Daten in Databricks Unity Catalog.
  2. Benutzer*innen in Ihrem Team gewähren anderen Mitgliedern Ihres Teams Zugriff auf den Katalog und die Objekte innerhalb des Katalogs (Schemas, Tabellen, Ansichten und Volumes) oder verwehren ihnen diesen Zugriff.
  3. Sie lesen die Daten in den Tabellen, Ansichten und Volumes, auf die Ihnen Zugriff gewährt wurde, genau wie jede andere Datenressource in Databricks, auf die Sie schreibgeschützten Zugriff (SELECT oder READ VOLUME) haben.
  4. Sie können Notebooks in der Freigabe in der Vorschau anzeigen und klonen, solange Sie über die USE CATALOG-Berechtigungen für den Katalog verfügen.

Erforderliche Berechtigungen

Um Details zu allen Anbietern und Anbieterfreigaben auflisten und anzeigen zu können, müssen Sie Metastoreadministrator sein oder über die USE PROVIDER-Berechtigung verfügen. Andere Benutzer haben nur Zugriff auf die Anbieter und Freigaben, die sie besitzen.

Um einen Katalog aus einer Anbieterfreigabe zu erstellen, müssen Sie ein Metastoreadministrator, ein Benutzer mit den Berechtigungen CREATE_CATALOG und USE PROVIDER für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über die CREATE_CATALOG-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist, sein.

Die Möglichkeit, schreibgeschützten Zugriff auf die Schemas (Datenbanken), Tabellen, Ansichten und Volumes im aus der Freigabe erstellten Katalog zu gewähren, folgt der typischen Unity Catalog-Berechtigungshierarchie. Die Möglichkeit, Notebooks im Katalog anzuzeigen, der aus der Freigabe erstellt wurde, erfordert die USE CATALOG-Berechtigung für den Katalog. Siehe Verwalten von Berechtigungen für die Schemas und Tabellen in einem Delta Sharing-Katalog.

Anzeigen von Anbietern und Freigaben

Um mit dem Lesen der Daten zu beginnen, die von einem Datenanbieter für Sie freigegeben wurden, müssen Sie den Namen des Anbieters kennen und Objekte freigeben, die in Ihrem Unity Catalog-Metastore gespeichert sind, sobald der Anbieter Daten für Sie freigegeben hat.

Das Anbieterobjekt stellt den Unity Catalog-Metastore, die Cloudplattform und die Region der Organisation dar, die die Daten für Sie freigegeben hat.

Das Freigabeobjekt stellt die Tabellen, Volumes oder Ansichten dar, die der Anbieter für Sie freigegeben hat.

Anzeigen aller Anbieter, die Daten für Sie freigegeben haben

Um eine Liste der verfügbaren Datenanbieter anzuzeigen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl SHOW PROVIDERS in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.

Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein oder über die USE PROVIDER-Berechtigung verfügen. Andere Benutzer haben nur Zugriff auf die Anbieter und Anbieterfreigaben, die sie besitzen.

Ausführliche Informationen finden Sie unter Anzeigen von Anbietern.

Anzeigen von Anbieterdetails

Um eine Liste der verfügbaren Datenanbieter anzuzeigen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl DESCRIBE PROVIDER in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.

Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein, über die USE PROVIDER-Berechtigung verfügen oder Besitzer des Anbieterobjekts sein.

Weitere Informationen finden Sie unter Anzeigen von Anbieterdetails.

Anzeigen von Freigaben

Um die Freigaben anzuzeigen, die ein Anbieter für Sie freigegeben hat, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl SHOW SHARES IN PROVIDER in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.

Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein, über die USE PROVIDER-Berechtigung verfügen oder Besitzer des Anbieterobjekts sein.

Weitere Informationen finden Sie unter Anzeigen von Freigaben, die ein Anbieter für Sie freigegeben hat.

Zugreifen auf Daten in einer freigegebenen Tabelle oder einem freigegebenen Volume

So lesen Sie Daten in einer freigegebenen Tabelle oder einem freigegebenen Volume:

  1. Ein*e privilegierte*r Benutzer*in muss einen Katalog aus der Freigabe erstellen, die die Tabelle oder das Volume enthält. Dies kann ein Metastoreadministrator, ein Benutzer mit den Berechtigungen CREATE_CATALOG und USE PROVIDER für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über die CREATE_CATALOG-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist, sein.
  2. Diese*r Benutzer*in oder ein*e Benutzer*in mit den gleichen Berechtigungen muss Ihnen Zugriff auf die freigegebene Tabelle oder das freigegebene Volume gewähren.
  3. Sie können auf die Tabelle oder das Volume wie auf jede andere Datenressource zugreifen, die in Ihrem Unity Catalog-Metastore registriert ist.

Erstellen eines Katalogs aus einer Freigabe

Damit die Daten in einer Freigabe für Ihr Team zugänglich sind, müssen Sie einen Katalog aus der Freigabe erstellen. Um einen Katalog aus einer Freigabe zu erstellen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder SQL-Befehle in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.

Erforderliche Berechtigungen: Ein Metastoreadministrator, ein Benutzer mit den Berechtigungen CREATE_CATALOG und USE PROVIDER für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über die CREATE_CATALOG-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist.

Hinweis

Wenn die Freigabe Ansichten enthält, müssen Sie einen Katalognamen verwenden, der sich von dem Namen des Katalogs, der die Ansicht im Metastore des Anbieters enthält, unterscheidet.

Katalog-Explorer

  1. Klicken Sie in Ihrem Azure Databricks-Arbeitsbereich auf Symbol „Katalog“Katalog.
  2. Erweitern Sie im linken Bereich das Menü Delta Sharing, und wählen Sie Für mich freigegeben aus.
  3. Wählen Sie auf der Registerkarte Anbieter den Anbieter aus.
  4. Suchen Sie auf der Registerkarte Freigaben nach der Freigabe, und klicken Sie in der Freigabezeile auf Katalog erstellen.
  5. Geben Sie einen Namen für den Katalog und optional einen Kommentar ein.
  6. Klicken Sie auf Erstellen.

Sql

Führen Sie in einem Notebook oder im Databricks SQL-Abfrage-Editor den folgenden Befehl aus.

CREATE CATALOG [IF NOT EXISTS] <catalog-name>
USING SHARE <provider-name>.<share-name>;

CLI

databricks catalogs create <catalog-name> /
--provider-name <provider-name> /
--share-name <share-name>

Der aus einer Freigabe erstellte Katalog weist den Katalogtyp Delta Sharing auf. Sie können den Typ auf der Seite mit den Katalogdetails im Katalog-Explorer oder durch Ausführen des SQL-Befehls DESCRIBE CATALOG in einem Notebook oder einer Databricks SQL-Abfrage anzeigen. Alle freigegebenen Kataloge werden im linken Bereich des Katalog-Explorers unter Catalog > Shared (Katalog > Freigegeben) aufgeführt.

Ein Delta Sharing-Katalog kann auf dieselbe Weise verwaltet werden wie reguläre Kataloge in einem Unity Catalog-Metastore. Sie können einen Delta Sharing-Katalog mit dem Katalog-Explorer, der Databricks-Befehlszeilenschnittstelle und mithilfe der SQL-Befehle SHOW CATALOGS, DESCRIBE CATALOG, ALTER CATALOG und DROP CATALOG anzeigen, aktualisieren und löschen.

Die dreistufige Namespacestruktur unter einem aus einer Freigabe erstellten Delta Sharing-Katalog ist dieselbe wie unter einem regulären Katalog in Unity Catalog: catalog.schema.table oder catalog.schema.volume.

Tabellen- und Volumedaten in einem freigegebenen Katalog sind schreibgeschützt. Dies bedeutet, dass Sie die folgenden Lesevorgänge ausführen können:

  • DESCRIBE, SHOW und SELECT für Tabellen.
  • DESCRIBE VOLUME, LIST <volume-path>, SELECT * FROM <format>.'<volume_path>' und COPY INTO für Volumes.

Notebooks in einem freigegebenen Katalog können von jedem Benutzer mit USE CATALOG im Katalog in der Vorschau angezeigt und geklont werden.

Modelle in einem freigegebenen Katalog können von jedem Benutzer mit den folgenden Berechtigungen gelesen und geladen werden: EXECUTE-Berechtigungen für das registrierte Modell sowie USE SCHEMA- und USE CATALOG-Berechtigungen für das Schema und den Katalog, der das Modell enthält.

Verwalten von Berechtigungen für die Schemas und Tabellen in einem Delta Sharing-Katalog

Standardmäßig ist der Katalogersteller der Besitzer aller Datenobjekte in einem Delta Sharing-Katalog und kann Berechtigungen für jedes dieser Objekte verwalten.

Berechtigungen werden nach unten vererbt, obwohl einige Arbeitsbereiche möglicherweise noch das Legacysicherheitsmodell verwenden, bei dem keine Vererbung möglich war. Sieh Vererbungsmodell. Jeder Benutzer, dem die SELECT-Berechtigung für den Katalog gewährt wird, hat die SELECT-Berechtigung für alle Schemas und Tabellen im Katalog, es sei denn, diese Berechtigung wird widerrufen. Ebenso verfügen alle Benutzer*innen, denen die READ VOLUME-Berechtigung für den Katalog gewährt wird, über die READ VOLUME-Berechtigung für alle Volumes im Katalog, es sei denn, diese Berechtigung wird widerrufen. Sie können keine Berechtigungen gewähren, die Schreib- oder Updatezugriff auf einen Delta Sharing-Katalog oder auf Objekte in einem Delta Sharing-Katalog gewähren.

Der Katalogbesitzer kann den Besitz von Datenobjekten an andere Benutzer oder Gruppen delegieren, wodurch diesen Benutzern die Möglichkeit zur Verwaltung der Objektberechtigungen und Lebenszyklen eingeräumt wird.

Ausführliche Informationen zum Verwalten von Berechtigungen für Datenobjekte mit Unity Catalog finden Sie unter Verwalten von Berechtigungen in Unity Catalog.

Lesen von Daten in einer freigegebenen Tabelle

Sie können Daten in einer freigegebenen Tabelle mit jedem der Tools lesen, die Ihnen als Azure Databricks-Benutzer*in zur Verfügung stehen: Katalog-Explorer, Notebooks, SQL-Abfragen, Databricks-Befehlszeilenschnittstelle und Databricks-REST-APIs. Sie müssen über die SELECT-Berechtigung für die Tabelle verfügen.

Lesen von Daten in einem freigegebenen Volume

Sie können Daten in einem freigegebenen Volume mit jedem der Tools lesen, die Ihnen als Azure Databricks-Benutzer*in zur Verfügung stehen: Katalog-Explorer, Notebooks, SQL-Abfragen, Databricks CLI und Databricks-REST-APIs. Sie müssen über die READ VOLUME-Berechtigung für das Volume verfügen.

Laden eines gemeinsam genutzten Modells für die Ableitung

Ausführliche Informationen zum Laden eines freigegebenen Modells und dessen Verwendung für die Batch-Ableitung finden Sie unter Laden von Modellen für die Ableitung.

Abfragen der Verlaufsdaten einer Tabelle

Wenn der Verlauf zusammen mit der Tabelle freigegeben wird, können Sie die Tabellendaten ab einer Version oder einem Zeitstempel abfragen. Erfordert Databricks Runtime 12.2 LTS oder höher.

Zum Beispiel:

SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution VERSION AS OF 3;
SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution TIMESTAMP AS OF "2023-01-01 00:00:00";

Wenn der Änderungsdatenfeed (CDF) mit der Tabelle aktiviert ist, können Sie diesen auch abfragen. Sowohl Version als auch Zeitstempel werden unterstützt:

SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', 0, 3);
SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', "2023-01-01 00:00:00", "2022-02-01 00:00:00");

Weitere Informationen zum Änderungsdatenfeed finden Sie unter Verwenden des Delta Lake-Änderungsdatenfeeds in Azure Databricks.

Abfragen einer Tabelle mithilfe von Apache Spark Structured Streaming

Wenn eine Tabelle für den Verlauf freigegeben wird, können Sie sie als Quelle für Spark Structured Streaming verwenden. Erfordert Databricks Runtime 12.2 LTS oder höher.

Unterstützte Optionen:

  • ignoreDeletes: Ignorieren von Transaktionen, die Daten löschen.
  • ignoreChanges: Erneutes Verarbeiten von Updates, wenn Dateien in der Quelltabelle aufgrund eines Datenwechselvorgangs wie UPDATE, MERGE INTO, DELETE (innerhalb von Partitionen) oder OVERWRITE neu geschrieben werden mussten. Unveränderte Zeilen können weiterhin ausgegeben werden. Daher sollten Ihre Downstream-Consumer in der Lage sein, Duplikate zu verarbeiten. Löschungen werden nicht nachgeschaltet propagiert. ignoreChanges subsumiert ignoreDeletes. Wenn Sie ignoreChanges verwenden, wird Ihr Stream daher weder durch Löschungen noch durch Aktualisierungen der Quelltabelle unterbrochen.
  • startingVersion: Die freigegebene Tabellenversion, mit der gestartet werden soll. Alle Tabellenänderungen ab dieser Version (und einschließlich) werden von der Streamingquelle gelesen.
  • startingTimestamp: Der Zeitstempel, ab dem gestartet werden soll. Alle Tabellenänderungen, die zum oder nach dem Zeitstempel (einschließlich) vorgenommen wurden, werden von der Streamingquelle gelesen. Beispiel: "2023-01-01 00:00:00.0"
  • maxFilesPerTrigger: Die Anzahl der neuen Dateien, die in jedem Mikrobatch berücksichtigt werden sollen.
  • maxBytesPerTrigger: Die Datenmenge, die in jedem Mikrobatch verarbeitet wird. Diese Option legt einen „soft max“ fest, was bedeutet, dass ein Batch ungefähr diese Datenmenge verarbeitet und möglicherweise mehr als den Grenzwert verarbeitet, um die Streamingabfrage voranzubringen, wenn die kleinste Eingabeeinheit größer als dieser Grenzwert ist.
  • readChangeFeed: Lesen des Änderungsdatenfeed der freigegebenen Tabelle im Stream.

Nicht unterstützte Optionen:

  • Trigger.availableNow

Beispiele strukturierter Streaming-Abfragen

Scala
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.table("vaccine.vaccine_us.vaccine_us_distribution")
Python
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.table("vaccine.vaccine_us.vaccine_us_distribution")

Wenn der Änderungsdatenfeed (CDF) mit der Tabelle aktiviert ist, können Sie den CDF per Stream lesen.

spark.readStream.format("deltaSharing")
.option("readChangeFeed", "true")
.table("vaccine.vaccine_us.vaccine_us_distribution")

Lesen von Tabellen mit aktivierter Löschvektoren oder Spaltenzuordnung

Wichtig

Dieses Feature befindet sich in der Public Preview.

Löschvektoren sind ein Speicheroptimierungsfeature, das Ihr Anbieter für freigegebene Delta-Tabellen aktivieren kann. Weitere Informationen finden Sie unter Was sind Löschvektoren?.

Azure Databricks unterstützt auch die Spaltenzuordnung für Delta-Tabellen. Weitere Informationen finden Sie unter Rename and drop columns with Delta Lake column mapping (Umbenennen und Löschen von Spalten mit Delta Lake-Spaltenzuordnung).

Wenn Ihr Anbieter eine Tabelle mit aktivierten Löschvektoren oder Spaltenzuordnungen geteilt hat, können Sie Batchlesevorgänge in der Tabelle mithilfe eines SQL-Warehouses oder eines Clusters ausführen, in dem Databricks Runtime 14.1 oder höher ausgeführt wird. CDF- und Streamingabfragen erfordern Databricks Runtime 14.2 oder höher.

Sie können Batchabfragen wie folgt ausführen, da sie basierend auf den Tabellenfeatures der freigegebenen Tabelle automatisch responseFormat auflösen können.

Wenn Sie einen Änderungsdatenfeed (CDF) lesen oder Streamingabfragen für freigegebene Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen ausführen möchten, müssen Sie die zusätzliche Option responseFormat=delta festlegen.

Die folgenden Beispiele zeigen Batch-, CDF- und Streamingabfragen:

import org.apache.spark.sql.SparkSession

// Batch query
spark.read.format("deltaSharing").table(<tableName>)

// CDF query
spark.read.format("deltaSharing")
  .option("readChangeFeed", "true")
  .option("responseFormat", "delta")
  .option("startingVersion", 1)
  .table(<tableName>)

// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").table(<tableName>)

Lesen freigegebener Ansichten

Wichtig

Dieses Feature befindet sich in der Public Preview.

Hinweis

Die Freigabe von Ansichten wird nur in der Databricks-zu-Databricks-Freigabe unterstützt.

Das Lesen freigegebener Ansichten entspricht dem Lesen freigegebener Tabellen, abgesehen von folgenden Ausnahmen:

Computeanforderungen:

  • Wenn sich Ihr Azure Databricks-Konto von dem des Anbieters unterscheidet, müssen Sie zum Abfragen freigegebener Ansichten ein serverloses SQL-Warehouse verwenden.
  • Wenn sich der Anbieter im selben Azure Databricks-Konto befindet, können Sie ein beliebiges SQL-Warehouse und auch einen Cluster verwenden, der den Modus für den gemeinsamen Zugriff verwendet.

Ansicht-auf-Ansicht-Beschränkungent:

Sie können keine Ansichten erstellen, die auf freigegebene Ansichten verweisen.

Anzeigen von Einschränkungen bei der Freigabe

Sie können keine Ansichten freigeben, die auf gemeinsame Tabellen oder gemeinsame Ansichten verweisen.

Benennungsanforderungen:

Der Katalogname, den Sie für den freigegebenen Katalog verwenden, der die Ansicht enthält, kann nicht mit dem Namen eines Anbieterkatalogs identisch sein, der eine Tabelle enthält, auf die in der Ansicht verwiesen wird. Wenn die freigegebene Ansicht beispielsweise in Ihrem Katalog test enthalten ist und eine der Tabellen des Anbieters, auf die in dieser Ansicht verwiesen wird, im Katalog test des Anbieters enthalten ist, führt die Abfrage zu einem Namespacekonfliktfehler. Weitere Informationen finden Sie unter Erstellen eines Katalogs aus einer Freigabe.

Verlauf und Streaming:

Sie können den Verlauf nicht abfragen oder eine Ansicht nicht als Streamingquelle verwenden.

JDBC/ODBC:

Die Anweisungen in diesem Artikel konzentrieren sich auf das Lesen freigegebener Daten mithilfe von Azure Databricks-Benutzeroberflächen, insbesondere mit Unity Catalog-Syntax und -Schnittstellen. Sie können freigegebene Ansichten auch mithilfe von Apache Spark, Python und BI-Tools wie Tableau und Power BI mit Databricks JDBC/ODBC-Treibern abfragen. Informationen zum Herstellen einer Verbindung mit den Databricks JDBC/ODBC-Treibern finden Sie unter Databricks ODBC- und JDBC-Treiber.

Lesen freigegebener Notebooks

Sie können den Katalog-Explorer verwenden, um freigegebene Notebook-Dateien in der Vorschau anzuzeigen und zu klonen.

Erforderliche Berechtigungen: Katalogbesitzer oder Benutzer mit der USE CATALOG-Berechtigung für den Katalog, der aus der Freigabe erstellt wurde.

  1. Klicken Sie in Ihrem Azure Databricks-Arbeitsbereich auf Symbol „Katalog“Katalog.

  2. Erweitern Sie im linken Bereich das Menü Katalog, suchen Sie den Katalog, der aus der Freigabe erstellt wurde, und wählen Sie ihn aus.

  3. Auf der Registerkarte Andere Ressourcen werden alle freigegebenen Notebookdateien angezeigt.

  4. Klicken Sie auf den Namen einer freigegebenen Notebookdatei, um eine Vorschau anzuzeigen.

  5. (Optional) Klicken Sie auf die Schaltfläche Klonen, um die freigegebene Notebookdatei in Ihren Arbeitsbereich zu importieren.

    1. Geben Sie im Dialogfeld Klonen in optional einen Neuen Namen ein, und wählen Sie dann den Arbeitsbereichsordner aus, in den Sie die Notebookdatei klonen möchten.
    2. Klicken Sie auf Klonen.
    3. Nachdem das Notizbuch geklont wurde, wird ein Dialogfeld angezeigt, in dem Sie darüber informiert werden, dass es erfolgreich geklont wurde. Klicken Sie im Dialogfeld auf Im Notebook-Editor anzeigen, um es im Notebook-Editor anzuzeigen.

    Siehe Einführung in Databricks-Notebooks.