Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här sidan beskriver hur du läser data i Salesforce Data 360 (tidigare Data Cloud) med hjälp av anslutningsappen för fildelning.
Vilken Salesforce-anslutning ska jag använda?
Databricks erbjuder flera kontakter för Salesforce. Det finns två zero-copy-kopplingar: Salesforce Data 360-fildelningskoppling och Salesforce Data 360-frågefederationskoppling. Med dessa kan du köra frågor mot data i Salesforce Data 360 utan att flytta dem. Det finns också en Salesforce-inmatningsanslutning som kopierar data från olika Salesforce-produkter.
Följande tabell sammanfattar skillnaderna mellan Salesforce-kopplingarna i Databricks.
| Anslutning | Användningsfall | Salesforce-produkter som stöds |
|---|---|---|
| Salesforce Data 360-fildelning | När du använder fildelningsanslutningsappen Salesforce Data 360 i Lakehouse Federation anropar Databricks Api:er för Salesforce Data-as-a-Service (DaaS) för att läsa data direkt på den underliggande lagringsplatsen för molnobjekt. Frågor körs på Databricks-beräkning utan att använda JDBC-protokollet. Jämfört med frågefederation är fildelning perfekt för federering av en stor mängd data. Det ger bättre prestanda för att läsa filer från flera datakällor och bättre pushdown-funktioner. Se Lakehouse Federation för Salesforce Data 360-fildelning. |
Salesforce Data 360 |
| Salesforce Data 360-frågefederation | När du använder frågefederationsanslutningsappen Salesforce Data 360 i Lakehouse Federation använder Databricks JDBC för att ansluta till källdata och skickar frågor till Salesforce. Se Köra federerade frågor på Salesforce Data 360. | Salesforce Data 360 |
| ** Salesforce-import | Med Salesforce-inmatningsanslutningen i Lakeflow Connect kan du skapa fullständigt hanterade inmatningspipelines från Salesforce Platform-data. Den här anslutningsappen maximerar värdet genom att använda inte bara CDP-data utan även CRM-data i Data Intelligence Platform. Se Samla in data från Salesforce. | Se Vilka Salesforce-produkter stöder Salesforce-inmatningsanslutningsappen? |
Innan du börjar
Krav för arbetsyta:
- Arbetsytan är aktiverad för Unity Catalog.
Beräkningskrav:
- Nätverksanslutning från databricks-beräkningsresursen till Salesforce Data 360-API:et och Salesforce Data 360:s offentliga S3-bucketar där data finns. Se Nätverksrekommendationer för Lakehouse Federation.
- Azure Databricks-kluster måste använda Databricks Runtime 16.3 eller senare och standardåtkomstläge.
- SQL-lager måste vara Pro eller Serverless.
Behörigheter som krävs:
- Om du vill skapa en anslutning måste du vara metaarkivadministratör eller användare med
CREATE CONNECTIONbehörighet i Unity Catalog-metaarkivet som är kopplat till arbetsytan. - Om du vill skapa en extern katalog måste du ha behörigheten
CREATE CATALOGi metaarkivet och antingen vara ägare till anslutningen eller haCREATE FOREIGN CATALOGbehörighet för anslutningen.
Ytterligare tillståndskrav specificeras i varje uppgiftsbaserad sektion som följer.
Skapa en anslutning och en extern katalog
En anslutning anger en sökväg och autentiseringsuppgifter för åtkomst till ett externt databassystem. Om du vill skapa en anslutning kan du använda Catalog Explorer eller kommandot CREATE CONNECTION SQL i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren.
Anmärkning
Du kan även använda Databricks REST API eller Databricks CLI för att skapa en anslutning. Se POST /api/2.1/unity-catalog/connections och Unity Catalog-kommandon.
Behörigheter som krävs: Metastore-admin eller användare med CREATE CONNECTION-behörighet.
Katalogutforskaren
På din Azure Databricks-arbetsyta klickar du på
Katalog.
Längst upp i fönstret Catalog, klicka på ikonen
Lägg till och välj Lägg till en anslutning från menyn.Du kan också klicka på knappen på sidan >, gå till fliken Anslutningar och klicka på Skapa anslutning.
På sidan Anslutningsgrundläggande i Installera anslutningsguiden anger du ett användarvänligt Anslutningsnamn.
Välj en anslutningstyp för Salesforce Data 360-fildelning.
(Valfritt) Lägg till en kommentar.
Klicka på Skapa anslutning.
På sidan Autentisering anger du följande egenskaper för din Salesforce Data 360-fildelningsinstans:
-
Klientspecifik slutpunkt: Till exempel
https://mvsw0mbrmqzdcyj-m02t0mrsh1.pc-rnd.c360a.salesforce.com -
Kärnklient-ID: Till exempel
core/falcontest8-core4sdb26/00DVF000001E16v2AC
-
Klientspecifik slutpunkt: Till exempel
På sidan Grundläggande katalog anger du ett namn för den externa katalogen. En extern katalog speglar en databas i ett externt datasystem så att du kan köra frågor mot och hantera åtkomst till data i databasen med hjälp av Azure Databricks och Unity Catalog.
(Valfritt) Klicka på Testa anslutning för att bekräfta att den fungerar.
Klicka på Skapa katalog.
På sidan Åtkomst väljer du de arbetsytor där användarna kan komma åt katalogen som du skapade. Du kan välja Alla arbetsytor har åtkomst eller klicka på Tilldela till arbetsytor, välja arbetsytor och sedan klicka på Tilldela.
Ändra ägaren som ska kunna hantera åtkomsten till alla objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten.
Bevilja privilegier i katalogen. Klicka på Tillåt:
a. Ange de huvudnamn som ska ha åtkomst till objekt i katalogen. Börja skriva en princip i textrutan och klicka sedan på principen i de returnerade resultaten. a. Välj förinställningarna för privilegier som ska beviljas varje huvudaktör . Alla kontoanvändare beviljas
BROWSEsom standard.- Välj Dataläsare på den nedrullningsbara menyn för att bevilja
readbehörigheter för objekt i katalogen. - Välj Dataredigeraren på den nedrullningsbara menyn för att bevilja
readochmodifybehörigheter för objekt i katalogen. - Välj de behörigheter som ska beviljas manuellt.
a. Klicka på Tillåt.
- Välj Dataläsare på den nedrullningsbara menyn för att bevilja
Klicka på Nästa.
På sidan Metadata anger du taggar nyckel/värde-par. Mer information finns i Tillämpa taggar på skyddsbara objekt i Unity Catalog.
(Valfritt) Lägg till en kommentar.
Klicka på Spara.
Notera
Account URLochConnection URL. Du behöver dessa värden för att skapa ett datadelningsmål i Salesforce.
SQL
Kör följande kommando i en notebook-fil eller Databricks SQL-frågeredigeraren.
CREATE CONNECTION <connection-name> TYPE SALESFORCE_DATA_CLOUD_FILE_SHARING OPTIONS ( tenant_specific_endpoint '<tenant_specific_endpoint>', core_tenant_id '<core_tenant_id>' );Gå till anslutningssidan för den nyligen skapade anslutningen och anteckna
Account URLochConnection URL. Du behöver dessa värden för att skapa ett datadelningsmål i Salesforce.
Skapa ett delningsmål för data i Salesforce
Skapa ett datamål i Salesforce med hjälp av Account URL och Connection URL du hämtade i föregående steg.
Se Skapa ett datadelningsmål (Databricks) i Salesforce-dokumentationen.
Datatypsmappningar
När du läser från Salesforce Data 360-fildelning till Spark kartläggs datatyper på följande sätt:
| Fildelningstyp för Salesforce Data 360 | Sparktyp |
|---|---|
| Nummer | DecimalType(38, 18) |
| Boolesk | Booleskt Datatyp |
| SMS | strängtyp |
| Datum | Datumtyp |
| Datum och tid | Tidsstämpeltyp |
| E-post (text) | strängtyp |
| Procent (antal) | DecimalType(38, 18) |
| Telefon (text) | strängtyp |
| URL (text) | strängtyp |
Begränsningar
- Anslutningen kan inte användas med enskilda användarkluster.