Lesen von per Databricks-zu-Databricks Delta Sharing freigegebenen Daten (für Empfänger)
In diesem Artikel wird beschrieben, wie Sie Daten lesen, die unter Verwendung des Databricks-zu-Databricks Delta Sharing-Protokolls für Sie freigegeben wurden, in dem Databricks eine sichere Verbindung für die Datenfreigabe verwaltet. Im Gegensatz zum Delta Sharing-Protokolle für offene Freigaben erfordert das Databricks-to-Databricks-Protokoll keine Datei mit Anmeldeinformationen (tokenbasierte Sicherheit).
Für die Databricks-zu-Databricks-Freigabe ist es erforderlich, dass Sie als Empfänger Zugriff auf einen Databricks-Arbeitsbereich haben, der für Unity-Katalog aktiviert ist.
Wenn Sie keinen Databricks-Arbeitsbereich haben, der für Unity-Katalog aktiviert ist, müssen Daten mit dem Delta Sharing-Protokoll für offene Freigaben für Sie freigegeben werden. Dieser Artikel trifft dann auf Sie zu. Weitere Informationen finden Sie unter Lesen von Daten, die über das Delta Sharing-Protokoll für offene Freigaben (für Empfänger) freigegeben wurden.
Wie stelle ich meinem Team freigegebene Daten zur Verfügung?
Um Daten und Notebooks zu lesen, die mit dem Databricks-to-Databricks-Protokoll für Sie freigegeben wurden, müssen Sie ein Benutzer in einem Databricks-Arbeitsbereich sein, der für Unity Catalog aktiviert ist. Ein Mitglied Ihres Teams gibt einen eindeutigen Bezeichner für Ihren Unity Katalog Metastore an den Datenanbieter weiter, und der Datenanbieter verwendet einen Bezeichner, um eine sichere Freigabeverbindung für Ihre Organisation zu erstellen. Die freigegebenen Daten werden dann für den Lesezugriff in Ihrem Arbeitsbereich zur Verfügung gestellt, und alle Updates, die der Datenanbieter an den freigegebenen Tabellen, Ansichten, Volumes und Partitionen vornimmt, werden in Ihrem Arbeitsbereich nahezu in Echtzeit widergespiegelt.
Hinweis
Updates an freigegebenen Datentabellen, Ansichten und Volumes werden nahezu in Echtzeit in Ihrem Arbeitsbereich angezeigt. Spaltenänderungen (Hinzufügen, Umbenennen, Löschen) werden jedoch möglicherweise bis zu eine Minute lang nicht im c-Explorer angezeigt. Ebenso werden neue Freigaben und Updates für Freigaben (z. B. das Hinzufügen neuer Tabellen zu einer Freigabe) eine Minute lang zwischengespeichert, bevor sie Ihnen zum Anzeigen und Abfragen zur Verfügung stehen.
So lesen Sie Daten, die für Sie freigegeben wurden:
- Benutzer*innen in Ihrem Team finden die Freigabe – den Container für die Tabellen, Ansichten, Volumes und Notebooks, die für Sie freigegeben wurden – und verwenden diese Freigabe, um einen Katalog zu erstellen – den Container auf oberster Ebene für alle Daten in Databricks Unity Catalog.
- Benutzer*innen in Ihrem Team gewähren anderen Mitgliedern Ihres Teams Zugriff auf den Katalog und die Objekte innerhalb des Katalogs (Schemas, Tabellen, Ansichten und Volumes) oder verwehren ihnen diesen Zugriff.
- Sie lesen die Daten in den Tabellen, Ansichten und Volumes, auf die Ihnen Zugriff gewährt wurde, genau wie jede andere Datenressource in Databricks, auf die Sie schreibgeschützten Zugriff (
SELECT
oderREAD VOLUME
) haben. - Sie können Notebooks in der Freigabe in der Vorschau anzeigen und klonen, solange Sie über die
USE CATALOG
-Berechtigungen für den Katalog verfügen.
Erforderliche Berechtigungen
Um Details zu allen Anbietern und Anbieterfreigaben auflisten und anzeigen zu können, müssen Sie Metastoreadministrator sein oder über die USE PROVIDER
-Berechtigung verfügen. Andere Benutzer haben nur Zugriff auf die Anbieter und Freigaben, die sie besitzen.
Um einen Katalog aus einer Anbieterfreigabe zu erstellen, müssen Sie ein Metastoreadministrator, ein Benutzer mit den Berechtigungen CREATE_CATALOG
und USE PROVIDER
für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über die CREATE_CATALOG
-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist, sein.
Die Möglichkeit, schreibgeschützten Zugriff auf die Schemas (Datenbanken), Tabellen, Ansichten und Volumes im aus der Freigabe erstellten Katalog zu gewähren, folgt der typischen Unity Catalog-Berechtigungshierarchie. Die Möglichkeit, Notebooks im Katalog anzuzeigen, der aus der Freigabe erstellt wurde, erfordert die USE CATALOG
-Berechtigung für den Katalog. Siehe Verwalten von Berechtigungen für die Schemas und Tabellen in einem Delta Sharing-Katalog.
Anzeigen von Anbietern und Freigaben
Um mit dem Lesen der Daten zu beginnen, die von einem Datenanbieter für Sie freigegeben wurden, müssen Sie den Namen des Anbieters kennen und Objekte freigeben, die in Ihrem Unity Catalog-Metastore gespeichert sind, sobald der Anbieter Daten für Sie freigegeben hat.
Das Anbieterobjekt stellt den Unity Catalog-Metastore, die Cloudplattform und die Region der Organisation dar, die die Daten für Sie freigegeben hat.
Das Freigabeobjekt stellt die Tabellen, Volumes oder Ansichten dar, die der Anbieter für Sie freigegeben hat.
Anzeigen aller Anbieter, die Daten für Sie freigegeben haben
Um eine Liste der verfügbaren Datenanbieter anzuzeigen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl SHOW PROVIDERS
in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.
Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein oder über die USE PROVIDER
-Berechtigung verfügen. Andere Benutzer haben nur Zugriff auf die Anbieter und Anbieterfreigaben, die sie besitzen.
Ausführliche Informationen finden Sie unter Anzeigen von Anbietern.
Anzeigen von Anbieterdetails
Um eine Liste der verfügbaren Datenanbieter anzuzeigen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl DESCRIBE PROVIDER
in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.
Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein, über die USE PROVIDER
-Berechtigung verfügen oder Besitzer des Anbieterobjekts sein.
Weitere Informationen finden Sie unter Anzeigen von Anbieterdetails.
Anzeigen von Freigaben
Um die Freigaben anzuzeigen, die ein Anbieter für Sie freigegeben hat, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder den SQL-Befehl SHOW SHARES IN PROVIDER
in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.
Erforderliche Berechtigungen: Sie müssen Metastoreadministrator sein, über die USE PROVIDER
-Berechtigung verfügen oder Besitzer des Anbieterobjekts sein.
Weitere Informationen finden Sie unter Anzeigen von Freigaben, die ein Anbieter für Sie freigegeben hat.
Zugreifen auf Daten in einer freigegebenen Tabelle oder einem freigegebenen Volume
So lesen Sie Daten in einer freigegebenen Tabelle oder einem freigegebenen Volume:
- Ein*e privilegierte*r Benutzer*in muss einen Katalog aus der Freigabe erstellen, die die Tabelle oder das Volume enthält. Dies kann ein Metastoreadministrator, ein Benutzer mit den Berechtigungen
CREATE_CATALOG
undUSE PROVIDER
für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über dieCREATE_CATALOG
-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist, sein. - Diese*r Benutzer*in oder ein*e Benutzer*in mit den gleichen Berechtigungen muss Ihnen Zugriff auf die freigegebene Tabelle oder das freigegebene Volume gewähren.
- Sie können auf die Tabelle oder das Volume wie auf jede andere Datenressource zugreifen, die in Ihrem Unity Catalog-Metastore registriert ist.
Erstellen eines Katalogs aus einer Freigabe
Damit die Daten in einer Freigabe für Ihr Team zugänglich sind, müssen Sie einen Katalog aus der Freigabe erstellen. Um einen Katalog aus einer Freigabe zu erstellen, können Sie den Katalog-Explorer, die Databricks Unity Catalog-Befehlszeilenschnittstelle oder SQL-Befehle in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.
Erforderliche Berechtigungen: Ein Metastoreadministrator, ein Benutzer mit den Berechtigungen CREATE_CATALOG
und USE PROVIDER
für Ihren Unity Catalog-Metastore oder ein Benutzer, der sowohl über die CREATE_CATALOG
-Berechtigungen verfügt als auch Besitzer des Anbieterobjekts ist.
Hinweis
Wenn die Freigabe Ansichten enthält, müssen Sie einen Katalognamen verwenden, der sich von dem Namen des Katalogs, der die Ansicht im Metastore des Anbieters enthält, unterscheidet.
Katalog-Explorer
Klicken Sie in Ihrem Azure Databricks-Arbeitsbereich auf Katalog, um den Katalog-Explorer zu öffnen.
Klicken Sie oben im Bereich Katalog auf das Zahnradsymbol , und wählen Sie Delta Sharing aus.
Klicken Sie alternativ auf der Seite Schnellzugriff auf die Schaltfläche Delta Sharing >.
Suchen Sie auf der Registerkarte Für mich freigegeben nach dem Anbieter, und wählen Sie ihn aus.
Suchen Sie auf der Registerkarte Freigaben nach der Freigabe, und klicken Sie in der Freigabezeile auf Katalog erstellen.
Geben Sie einen Namen für den Katalog und optional einen Kommentar ein.
Klicken Sie auf Erstellen.
Alternativ können Sie beim Öffnen des Katalog-Explorers oben rechts auf Katalog erstellen klicken, um einen freigegebenen Katalog zu erstellen. Weitere Informationen finden Sie unter Erstellen von Katalogen.
SQL
Führen Sie in einem Notebook oder im Databricks SQL-Abfrage-Editor den folgenden Befehl aus.
CREATE CATALOG [IF NOT EXISTS] <catalog-name>
USING SHARE <provider-name>.<share-name>;
BEFEHLSZEILENSCHNITTSTELLE (CLI)
databricks catalogs create <catalog-name> /
--provider-name <provider-name> /
--share-name <share-name>
Der aus einer Freigabe erstellte Katalog weist den Katalogtyp Delta Sharing auf. Sie können den Typ auf der Seite mit den Katalogdetails im Katalog-Explorer oder durch Ausführen des SQL-Befehls DESCRIBE CATALOG in einem Notebook oder einer Databricks SQL-Abfrage anzeigen. Alle freigegebenen Kataloge werden im linken Bereich des Katalog-Explorers unter Catalog > Shared (Katalog > Freigegeben) aufgeführt.
Ein Delta Sharing-Katalog kann auf dieselbe Weise verwaltet werden wie reguläre Kataloge in einem Unity Catalog-Metastore. Sie können einen Delta Sharing-Katalog mit dem Katalog-Explorer, der Databricks-Befehlszeilenschnittstelle und mithilfe der SQL-Befehle SHOW CATALOGS
, DESCRIBE CATALOG
, ALTER CATALOG
und DROP CATALOG
anzeigen, aktualisieren und löschen.
Die dreistufige Namespacestruktur unter einem aus einer Freigabe erstellten Delta Sharing-Katalog ist dieselbe wie unter einem regulären Katalog in Unity Catalog: catalog.schema.table
oder catalog.schema.volume
.
Tabellen- und Volumedaten in einem freigegebenen Katalog sind schreibgeschützt. Dies bedeutet, dass Sie die folgenden Lesevorgänge ausführen können:
DESCRIBE
,SHOW
undSELECT
für Tabellen.DESCRIBE VOLUME
,LIST <volume-path>
,SELECT * FROM <format>.'<volume_path>'
undCOPY INTO
für Volumes.
Notebooks in einem freigegebenen Katalog können von jedem Benutzer mit USE CATALOG
im Katalog in der Vorschau angezeigt und geklont werden.
Modelle in einem freigegebenen Katalog können von jedem Benutzer mit den folgenden Berechtigungen gelesen und geladen werden: EXECUTE
-Berechtigungen für das registrierte Modell sowie USE SCHEMA
- und USE CATALOG
-Berechtigungen für das Schema und den Katalog, der das Modell enthält.
Verwalten von Berechtigungen für die Schemas und Tabellen in einem Delta Sharing-Katalog
Standardmäßig ist der Katalogersteller der Besitzer aller Datenobjekte in einem Delta Sharing-Katalog und kann Berechtigungen für jedes dieser Objekte verwalten.
Berechtigungen werden nach unten vererbt, obwohl einige Arbeitsbereiche möglicherweise noch das Legacysicherheitsmodell verwenden, bei dem keine Vererbung möglich war. Sieh Vererbungsmodell. Jeder Benutzer, dem die SELECT
-Berechtigung für den Katalog gewährt wird, hat die SELECT
-Berechtigung für alle Schemas und Tabellen im Katalog, es sei denn, diese Berechtigung wird widerrufen. Ebenso verfügen alle Benutzer*innen, denen die READ VOLUME
-Berechtigung für den Katalog gewährt wird, über die READ VOLUME
-Berechtigung für alle Volumes im Katalog, es sei denn, diese Berechtigung wird widerrufen. Sie können keine Berechtigungen gewähren, die Schreib- oder Updatezugriff auf einen Delta Sharing-Katalog oder auf Objekte in einem Delta Sharing-Katalog gewähren.
Der Katalogbesitzer kann den Besitz von Datenobjekten an andere Benutzer oder Gruppen delegieren, wodurch diesen Benutzern die Möglichkeit zur Verwaltung der Objektberechtigungen und Lebenszyklen eingeräumt wird.
Ausführliche Informationen zum Verwalten von Berechtigungen für Datenobjekte mit Unity Catalog finden Sie unter Verwalten von Berechtigungen in Unity Catalog.
Lesen von Daten in einer freigegebenen Tabelle
Sie können Daten in einer freigegebenen Tabelle mit jedem der Tools lesen, die Ihnen als Azure Databricks-Benutzer*in zur Verfügung stehen: Katalog-Explorer, Notebooks, SQL-Abfragen, Databricks-Befehlszeilenschnittstelle und Databricks-REST-APIs. Sie müssen über die SELECT
-Berechtigung für die Tabelle verfügen.
Lesen von Daten in einem freigegebenen Volume
Sie können Daten in einem freigegebenen Volume mit jedem der Tools lesen, die Ihnen als Azure Databricks-Benutzer*in zur Verfügung stehen: Katalog-Explorer, Notebooks, SQL-Abfragen, Databricks CLI und Databricks-REST-APIs. Sie müssen über die READ VOLUME
-Berechtigung für das Volume verfügen.
Laden eines gemeinsam genutzten Modells für die Ableitung
Ausführliche Informationen zum Laden eines freigegebenen Modells und dessen Verwendung für Batchrückschlüsse finden Sie unter Laden der Modellversion nach Alias für Rückschlussworkloads.
Abfragen der Verlaufsdaten einer Tabelle
Wenn der Verlauf zusammen mit der Tabelle freigegeben wird, können Sie die Tabellendaten ab einer Version oder einem Zeitstempel abfragen. Erfordert Databricks Runtime 12.2 LTS oder höher.
Zum Beispiel:
SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution VERSION AS OF 3;
SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution TIMESTAMP AS OF "2023-01-01 00:00:00";
Wenn der Änderungsdatenfeed (CDF) mit der Tabelle aktiviert ist, können Sie diesen auch abfragen. Sowohl Version als auch Zeitstempel werden unterstützt:
SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', 0, 3);
SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', "2023-01-01 00:00:00", "2022-02-01 00:00:00");
Weitere Informationen zum Änderungsdatenfeed finden Sie unter Verwenden des Delta Lake-Änderungsdatenfeeds in Azure Databricks.
Abfragen einer Tabelle mithilfe von Apache Spark Structured Streaming
Wenn eine Tabelle für den Verlauf freigegeben wird, können Sie sie als Quelle für Spark Structured Streaming verwenden. Erfordert Databricks Runtime 12.2 LTS oder höher.
Unterstützte Optionen:
ignoreDeletes
: Ignorieren von Transaktionen, die Daten löschen.ignoreChanges
: Erneutes Verarbeiten von Updates, wenn Dateien in der Quelltabelle aufgrund eines Datenwechselvorgangs wieUPDATE
,MERGE INTO
,DELETE
(innerhalb von Partitionen) oderOVERWRITE
neu geschrieben werden mussten. Unveränderte Zeilen können weiterhin ausgegeben werden. Daher sollten Ihre Downstream-Consumer in der Lage sein, Duplikate zu verarbeiten. Löschungen werden nicht nachgeschaltet propagiert.ignoreChanges
subsumiertignoreDeletes
. Wenn SieignoreChanges
verwenden, wird Ihr Stream daher weder durch Löschungen noch durch Aktualisierungen der Quelltabelle unterbrochen.startingVersion
: Die freigegebene Tabellenversion, mit der gestartet werden soll. Alle Tabellenänderungen ab dieser Version (und einschließlich) werden von der Streamingquelle gelesen.startingTimestamp
: Der Zeitstempel, ab dem gestartet werden soll. Alle Tabellenänderungen, die zum oder nach dem Zeitstempel (einschließlich) vorgenommen wurden, werden von der Streamingquelle gelesen. Beispiel:"2023-01-01 00:00:00.0"
maxFilesPerTrigger
: Die Anzahl der neuen Dateien, die in jedem Mikrobatch berücksichtigt werden sollen.maxBytesPerTrigger
: Die Datenmenge, die in jedem Mikrobatch verarbeitet wird. Diese Option legt einen „soft max“ fest, was bedeutet, dass ein Batch ungefähr diese Datenmenge verarbeitet und möglicherweise mehr als den Grenzwert verarbeitet, um die Streamingabfrage voranzubringen, wenn die kleinste Eingabeeinheit größer als dieser Grenzwert ist.readChangeFeed
: Lesen des Änderungsdatenfeed der freigegebenen Tabelle im Stream.
Nicht unterstützte Optionen:
Trigger.availableNow
Beispiele strukturierter Streaming-Abfragen
Scala
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.table("vaccine.vaccine_us.vaccine_us_distribution")
Python
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.table("vaccine.vaccine_us.vaccine_us_distribution")
Wenn der Änderungsdatenfeed (CDF) mit der Tabelle aktiviert ist, können Sie den CDF per Stream lesen.
spark.readStream.format("deltaSharing")
.option("readChangeFeed", "true")
.table("vaccine.vaccine_us.vaccine_us_distribution")
Lesen von Tabellen mit aktivierter Löschvektoren oder Spaltenzuordnung
Wichtig
Dieses Feature befindet sich in der Public Preview.
Löschvektoren sind ein Speicheroptimierungsfeature, das Ihr Anbieter für freigegebene Delta-Tabellen aktivieren kann. Weitere Informationen finden Sie unter Was sind Löschvektoren?.
Azure Databricks unterstützt auch die Spaltenzuordnung für Delta-Tabellen. Weitere Informationen finden Sie unter Rename and drop columns with Delta Lake column mapping (Umbenennen und Löschen von Spalten mit Delta Lake-Spaltenzuordnung).
Wenn Ihr Anbieter eine Tabelle mit aktivierten Löschvektoren oder Spaltenzuordnungen geteilt hat, können Sie Batchlesevorgänge in der Tabelle mithilfe eines SQL-Warehouses oder eines Clusters ausführen, in dem Databricks Runtime 14.1 oder höher ausgeführt wird. CDF- und Streamingabfragen erfordern Databricks Runtime 14.2 oder höher.
Sie können Batchabfragen wie folgt ausführen, da sie basierend auf den Tabellenfeatures der freigegebenen Tabelle automatisch responseFormat
auflösen können.
Wenn Sie einen Änderungsdatenfeed (CDF) lesen oder Streamingabfragen für freigegebene Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen ausführen möchten, müssen Sie die zusätzliche Option responseFormat=delta
festlegen.
Die folgenden Beispiele zeigen Batch-, CDF- und Streamingabfragen:
import org.apache.spark.sql.SparkSession
// Batch query
spark.read.format("deltaSharing").table(<tableName>)
// CDF query
spark.read.format("deltaSharing")
.option("readChangeFeed", "true")
.option("responseFormat", "delta")
.option("startingVersion", 1)
.table(<tableName>)
// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").table(<tableName>)
Lesen freigegebener Ansichten
Wichtig
Dieses Feature befindet sich in der Public Preview.
Hinweis
Die Freigabe von Ansichten wird nur in der Databricks-zu-Databricks-Freigabe unterstützt.
Das Lesen freigegebener Ansichten entspricht dem Lesen freigegebener Tabellen, abgesehen von folgenden Ausnahmen:
Computeanforderungen:
- Wenn sich Ihr Azure Databricks-Konto von dem des Anbieters unterscheidet, müssen Sie zum Abfragen freigegebener Ansichten ein serverloses SQL-Warehouse verwenden.
- Wenn sich der Anbieter im selben Azure Databricks-Konto befindet, können Sie ein beliebiges SQL-Warehouse und auch einen Cluster verwenden, der den Modus für den gemeinsamen Zugriff verwendet.
Ansicht-auf-Ansicht-Beschränkungent:
Sie können keine Ansichten erstellen, die auf freigegebene Ansichten verweisen.
Anzeigen von Einschränkungen bei der Freigabe
Sie können keine Ansichten freigeben, die auf gemeinsame Tabellen oder gemeinsame Ansichten verweisen.
Benennungsanforderungen:
Der Katalogname, den Sie für den freigegebenen Katalog verwenden, der die Ansicht enthält, kann nicht mit dem Namen eines Anbieterkatalogs identisch sein, der eine Tabelle enthält, auf die in der Ansicht verwiesen wird. Wenn die freigegebene Ansicht beispielsweise in Ihrem Katalog test
enthalten ist und eine der Tabellen des Anbieters, auf die in dieser Ansicht verwiesen wird, im Katalog test
des Anbieters enthalten ist, führt die Abfrage zu einem Namespacekonfliktfehler. Weitere Informationen finden Sie unter Erstellen eines Katalogs aus einer Freigabe.
Verlauf und Streaming:
Sie können den Verlauf nicht abfragen oder eine Ansicht nicht als Streamingquelle verwenden.
JDBC/ODBC:
Die Anweisungen in diesem Artikel konzentrieren sich auf das Lesen freigegebener Daten mithilfe von Azure Databricks-Benutzeroberflächen, insbesondere mit Unity Catalog-Syntax und -Schnittstellen. Sie können freigegebene Ansichten auch mithilfe von Apache Spark, Python und BI-Tools wie Tableau und Power BI mit Databricks JDBC/ODBC-Treibern abfragen. Informationen zum Herstellen einer Verbindung mit den Databricks JDBC/ODBC-Treibern finden Sie unter Databricks ODBC- und JDBC-Treiber.
Lesen freigegebener Notebooks
Sie können den Katalog-Explorer verwenden, um freigegebene Notebook-Dateien in der Vorschau anzuzeigen und zu klonen.
Erforderliche Berechtigungen: Katalogbesitzer oder Benutzer mit der USE CATALOG
-Berechtigung für den Katalog, der aus der Freigabe erstellt wurde.
Klicken Sie in Ihrem Azure Databricks-Arbeitsbereich auf Katalog.
Erweitern Sie im linken Bereich das Menü Katalog, suchen Sie den Katalog, der aus der Freigabe erstellt wurde, und wählen Sie ihn aus.
Auf der Registerkarte Andere Ressourcen werden alle freigegebenen Notebookdateien angezeigt.
Klicken Sie auf den Namen einer freigegebenen Notebookdatei, um eine Vorschau anzuzeigen.
(Optional) Klicken Sie auf die Schaltfläche Klonen, um die freigegebene Notebookdatei in Ihren Arbeitsbereich zu importieren.
- Geben Sie im Dialogfeld Klonen in optional einen Neuen Namen ein, und wählen Sie dann den Arbeitsbereichsordner aus, in den Sie die Notebookdatei klonen möchten.
- Klicken Sie auf Klonen.
- Nachdem das Notizbuch geklont wurde, wird ein Dialogfeld angezeigt, in dem Sie darüber informiert werden, dass es erfolgreich geklont wurde. Klicken Sie im Dialogfeld auf Im Notebook-Editor anzeigen, um es im Notebook-Editor anzuzeigen.