Anmerkung
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Auf dieser Seite wird beschrieben, wie Sie Daten in Salesforce Data 360 (ehemals Data Cloud) mithilfe des Dateifreigabe-Connectors auslesen.
Welchen Salesforce-Connector sollte ich verwenden?
Databricks bietet mehrere Connectors für Salesforce. Es gibt zwei Zero-Copy-Konnektoren: den Salesforce Data 360-Dateifreigabekonnektor und den Salesforce Data 360-Abfrageverbund-Konnektor. Auf diese Weise können Sie Daten in Salesforce Data 360 abfragen, ohne sie zu verschieben. Es gibt auch einen Salesforce-Integrations-Connector, der Daten aus diversen Salesforce-Produkten kopiert.
In der folgenden Tabelle sind die Unterschiede zwischen den Salesforce-Connectors in Databricks zusammengefasst:
| Verbinder | Anwendungsfall | Unterstützte Salesforce-Produkte |
|---|---|---|
| Salesforce Data 360-Dateifreigabe | Wenn Sie den Salesforce Data 360 File Sharing Connector in Lakehouse Federation verwenden, ruft Databricks Salesforce Data-as-a-Service (DaaS)-APIs auf, um Daten direkt im zugrunde liegenden Cloudobjektspeicherort zu lesen. Abfragen werden auf Databricks-Berechnungseinheiten ausgeführt, ohne das JDBC-Protokoll zu verwenden. Im Vergleich zur Abfrage-Föderation eignet sich die Dateifreigabe ideal für die Aggregation einer großen Datenmenge. Es bietet eine verbesserte Leistung zum Lesen von Dateien aus mehreren Datenquellen und bessere Pushdownfunktionen. Siehe Lakehouse Federation for Salesforce Data 360 File Sharing. |
Salesforce Data 360 |
| Salesforce Data 360-Abfrageverbund | Wenn Sie den Salesforce Data 360-Abfrage-Verbunde-Konnektor in Lakehouse Federation verwenden, verwendet Databricks JDBC, um eine Verbindung zu den Quelldaten herzustellen und Abfragen nach Salesforce zu verschieben. Siehe Ausführen von Verbundabfragen für Salesforce Data 360. | Salesforce Data 360 |
| Salesforce-Datenintegration | Mit dem Ingestions-Connector von Salesforce in Lakeflow Connect können Sie vollständig verwaltete Ingestions-Pipelines aus Daten der Salesforce-Plattform erstellen. Dieser Connector maximiert den Wert, indem nicht nur CDP-Daten, sondern auch CRM-Daten in der Data Intelligence Platform genutzt werden. Siehe "Aufnehmen von Daten aus Salesforce". | Welche Salesforce-Produkte unterstützt der Salesforce-Ingestionsconnector? |
Bevor Sie anfangen
Anforderungen an den Arbeitsbereich:
- Der Arbeitsbereich muss für Unity Catalog aktiviert sein.
Computeanforderungen:
- Netzwerkkonnektivität von Ihrer Databricks-Compute-Ressource zur Salesforce Data 360-API und den öffentlichen S3-Buckets von Salesforce Data 360, in denen die Daten gespeichert sind. Weitere Informationen finden Sie unter Netzwerkempfehlungen für Lakehouse Federation.
- Azure Databricks-Cluster müssen Databricks Runtime 16.3 oder höher und standardzugriffsmodus verwenden.
- SQL-Warehouses müssen „Pro“ oder serverlos sein.
Erforderliche Berechtigungen:
- Um eine Verbindung zu erstellen, müssen Sie ein Metastore-Administrator oder ein Benutzer mit den
CREATE CONNECTIONBerechtigungen für den Unity-Katalog-Metastore sein, der dem Arbeitsbereich zugeordnet ist. - Um einen Fremdkatalog zu erstellen, müssen Sie über die Berechtigung „
CREATE CATALOG“ für den Metastore verfügen und entweder der Besitzer der Verbindung sein oder über die Berechtigung „CREATE FOREIGN CATALOG“ für die Verbindung verfügen.
Zusätzliche Berechtigungsanforderungen werden in den folgenden aufgabenbasierten Abschnitten angegeben.
Erstellen Sie eine Verbindung und einen externen Katalog
Eine Verbindung gibt einen Pfad und Anmeldeinformationen für den Zugriff auf ein externes Datenbanksystem an. Zum Erstellen einer Verbindung können Sie den Katalog-Explorer oder den SQL-Befehl „CREATE CONNECTION“ in einem Azure Databricks-Notebook oder im Databricks SQL-Abfrage-Editor verwenden.
Hinweis
Sie können auch die Databricks-REST-API oder die Databricks CLI verwenden, um eine Verbindung zu erstellen. Siehe POST /api/2.1/unity-catalog/connections und Unity Catalog-Befehle.
Erforderliche Berechtigungen: Metastore-Administrator oder Benutzer mit der Berechtigung „CREATE CONNECTION“.
Katalog-Explorer
Klicken Sie im Azure Databricks-Arbeitsbereich auf das
Katalog.
Klicken Sie oben im Bereich Katalog auf das Symbol
Hinzufügen, und wählen Sie im Menü Verbindung hinzufügen aus.Klicken Sie alternativ auf der Seite Schnellzugriff auf die Schaltfläche Externe Daten >, wechseln Sie zur Registerkarte Verbindungen, und klicken Sie auf Verbindungerstellen.
Geben Sie auf der Seite Verbindungsgrundlagen des Assistenten Verbindung einrichten einen benutzerfreundlichen Verbindungsnamen ein.
Wählen Sie einen Verbindungstyp von Salesforce Data 360 File Sharing aus.
(Optional) Fügen Sie einen Kommentar hinzu.
Klicken Sie auf Verbindung herstellen.
Geben Sie auf der Seite " Authentifizierung " die folgenden Eigenschaften für Ihre Salesforce Data 360 File Sharing-Instanz ein:
-
Mandantenspezifischer Endpunkt: Beispiel:
https://mvsw0mbrmqzdcyj-m02t0mrsh1.pc-rnd.c360a.salesforce.com -
Kernmandanten-ID: Beispiel:
core/falcontest8-core4sdb26/00DVF000001E16v2AC
-
Mandantenspezifischer Endpunkt: Beispiel:
Geben Sie auf der Seite Kataloggrundlagen einen Namen für den Fremdkatalog ein. Ein fremder Katalog spiegelt eine Datenbank in einem externen Datensystem wider, sodass Sie den Zugriff auf Daten in dieser Datenbank mithilfe von Azure Databricks und Unity Catalog abfragen und verwalten können.
(Optional) Klicken Sie auf Verbindung testen, um zu bestätigen, dass die Verbindung funktioniert.
Klicken Sie auf Katalog erstellen.
Wählen Sie auf der Seite Access die Arbeitsbereiche aus, in denen Benutzer auf den von Ihnen erstellten Katalog zugreifen können. Sie können Alle Arbeitsbereichen haben Zugriff auswählen oder auf Arbeitsbereichen zuweisen klicken, die Arbeitsbereiche auswählen und dann auf Zuweisen klicken.
Ändern Sie den Eigentümer, der in der Lage sein wird, den Zugriff auf alle Objekte im Katalog zu verwalten. Beginnen Sie mit der Eingabe eines Prinzipals im Textfeld, und klicken Sie dann in den zurückgegebenen Ergebnissen auf den Prinzipal.
Gewähren Sie Berechtigungen für den Katalog. Klicken Sie auf Gewähren:
a) Geben Sie die Prinzipale an, die Zugriff auf Objekte im Katalog haben sollen. Beginnen Sie mit der Eingabe eines Prinzipals im Textfeld, und klicken Sie dann in den zurückgegebenen Ergebnissen auf den Prinzipal. a) Wählen Sie die Berechtigungsvoreinstellungen aus, die den einzelnen Prinzipalen gewährt werden sollen. Standardmäßig werden allen Kontobenutzern
BROWSEgewährt.- Wählen Sie Data Reader aus dem Dropdown-Menü aus, um
readBerechtigungen für Objekte im Katalog zu gewähren. - Wählen Sie Daten-Editor aus dem Dropdownmenü aus, um
readundmodifyBerechtigungen für Objekte im Katalog zu gewähren. - Wählen Sie manuell die Berechtigungen aus, die Sie vergeben möchten.
a) Klicken Sie auf Gewähren.
- Wählen Sie Data Reader aus dem Dropdown-Menü aus, um
Klicke auf Weiter.
Geben Sie auf der Seite Metadaten Tag-Schlüssel-Wert-Paare an. Weitere Informationen finden Sie unter Anwenden von Tags auf sicherbare Unity-Katalog-Objekte.
(Optional) Fügen Sie einen Kommentar hinzu.
Klicken Sie auf Speichern.
Notieren Sie sich die
Account URLund dieConnection URL. Sie benötigen diese Werte, um ein Datenfreigabeziel in Salesforce zu erstellen.
SQL
Führen Sie in einem Notebook oder im Databricks SQL-Abfrage-Editor den folgenden Befehl aus.
CREATE CONNECTION <connection-name> TYPE SALESFORCE_DATA_CLOUD_FILE_SHARING OPTIONS ( tenant_specific_endpoint '<tenant_specific_endpoint>', core_tenant_id '<core_tenant_id>' );Wechseln Sie zur Verbindungsseite der neu erstellten Verbindung, und notieren Sie sich die
Account URLund dieConnection URL. Sie benötigen diese Werte, um ein Datenfreigabeziel in Salesforce zu erstellen.
Erstellen eines Datenfreigabeziels in Salesforce
Erstellen Sie ein Datenfreigabeziel in Salesforce mithilfe von Account URL und Connection URL, die Sie im vorherigen Schritt abgerufen haben.
Siehe Erstellen eines Datenfreigabeziels (Databricks) in der Salesforce-Dokumentation.
Datentypzuordnungen
Wenn Sie aus Salesforce Data 360 File Sharing nach Spark lesen, werden die Datentypen wie folgt zugeordnet:
| Salesforce Data 360 Dateifreigabetyp | Spark-Typ |
|---|---|
| Nummer | DecimalType(38, 18) |
| Boolescher Typ (Boolean) | Boolescher Typ |
| Text | Zeichenkettentyp |
| Datum | Datumstyp |
| Datum und Uhrzeit | Zeitstempeltyp |
| E-Mail (Text) | Zeichenkettentyp |
| Prozent (Zahl) | DecimalType(38, 18) |
| Telefon (Text) | Zeichenkettentyp |
| URL (Text) | Zeichenkettentyp |
Einschränkungen
- Der Connector kann nicht mit Einzelbenutzerclustern verwendet werden.