Sdílet prostřednictvím


Lakehouse Federation pro sdílení souborů Salesforce Data 360

Tato stránka popisuje, jak číst data v Salesforce Data 360 (dříve Data Cloud) pomocí konektoru pro sdílení souborů.

Jaký konektor Salesforce mám použít?

Databricks nabízí více konektorů pro Salesforce. Existují dva konektory bez kopírování: konektor pro sdílení souborů Salesforce Data 360 a konektor pro federaci dotazů Salesforce Data 360. To vám umožní dotazovat se na data v Salesforce Data 360, aniž byste je přesunuli. Existuje také konektor pro příjem dat Salesforce, který kopíruje data z různých produktů Salesforce.

Následující tabulka shrnuje rozdíly mezi konektory Salesforce v Databricks:

Konektor Případ použití Podporované produkty Salesforce
Sdílení souborů Salesforce Data 360 Když v Lakehouse Federation použijete konektor pro sdílení souborů Salesforce Data 360, Databricks volá rozhraní API Salesforce Data jako služba (DaaS) k přímému čtení dat v podkladovém umístění cloudového úložiště objektů. Dotazy se spouštějí na výpočetních prostředcích Databricks bez použití protokolu JDBC.
Ve srovnání s federací dotazů je sdílení souborů ideální pro federování velkého množství dat. Nabízí vylepšený výkon při čtení souborů z více zdrojů dat a lepší schopnosti prosazení. Viz Lakehouse Federation pro sdílení souborů Salesforce Data 360.
Salesforce Data 360
Federace dotazů Salesforce Data 360 Když v Lakehouse Federation použijete federační konektor dotazů Salesforce Data 360, Databricks se pomocí JDBC připojí ke zdrojovým datům a odešle dotazy do Salesforce. Vizte Proveďte federované dotazy na Salesforce Data 360. Salesforce Data 360
Příjem dat Salesforce Konektor pro příjem dat Salesforce v Lakeflow Connect umožňuje vytvářet plně spravované kanály příjmu dat z dat platformy Salesforce. Tento konektor maximalizuje hodnotu tím, že využívá nejen data CDP, ale také data CRM v platformě Data Intelligence Platform. Viz Ingestování dat ze služby Salesforce. Podívejte se na produkty Salesforce, které podporuje konektor pro příjem dat Salesforce.

Než začnete

Požadavky na pracovní prostor:

  • Pracovní prostor aktivován pro katalog Unity.

Požadavky na výpočetní prostředky:

  • Síťové připojení z výpočetního prostředku Databricks k rozhraní API Salesforce Data 360 a veřejným kontejnerům S3 služby Salesforce Data 360, ve kterých se data nacházejí. Podívejte se na doporučení pro síťování pro Lakehouse Federation.
  • Clustery Azure Databricks musí používat Databricks Runtime 16.3 nebo vyšší a standardní režim přístupu.
  • Sql Warehouse musí být Verze Pro nebo Bezserverová.

Požadovaná oprávnění:

  • Pokud chcete vytvořit připojení, musíte být správcem metastoru nebo uživatelem s oprávněním CREATE CONNECTION k metastoru katalogu Unity připojenému k pracovnímu prostoru.
  • Chcete-li vytvořit cizí katalog, musíte mít oprávnění CREATE CATALOG k metastoru a být buď vlastníkem připojení, nebo mít oprávnění CREATE FOREIGN CATALOG pro připojení.

Další požadavky na oprávnění jsou uvedeny v následující části založené na úlohách.

Vytvořte připojení a externí katalog

Připojení určuje cestu a přihlašovací údaje pro přístup k externímu databázovému systému. K vytvoření připojení můžete použít Průzkumníka katalogu nebo příkaz CREATE CONNECTION SQL v poznámkovém bloku Azure Databricks nebo editoru dotazů SQL Databricks.

Poznámka:

K vytvoření připojení můžete použít také rozhraní REST API Databricks nebo rozhraní příkazového řádku Databricks. Viz POST /api/2.1/unity-catalog/connections a příkazy Unity Catalog .

Požadovaná oprávnění : správce metastoru nebo uživatel s oprávněním CREATE CONNECTION.

Průzkumník katalogu

  1. V pracovním prostoru Azure Databricks klikněte na ikonu Data.Katalog.

  2. V horní části podokna katalogu klikněte na ikonu Přidat nebo plusikona Přidat a v nabídce vyberte možnost Přidat připojení.

    Případně na stránce Rychlý přístup klikněte na tlačítko Externí data >, přejděte na kartu Připojení a klikněte na Vytvořit připojení.

  3. Na stránce základy připojení průvodce Nastavení připojení zadejte uživatelsky přívětivý název připojení.

  4. Vyberte typ připojeníke sdílení souborů Salesforce Data 360.

  5. (Volitelné) Přidejte komentář.

  6. Klikněte na Vytvořit připojení.

  7. Na stránce Ověřování zadejte následující vlastnosti instance sdílení souborů Salesforce Data 360:

    • Koncový bod specifický pro tenanta: Příklad: https://mvsw0mbrmqzdcyj-m02t0mrsh1.pc-rnd.c360a.salesforce.com
    • ID základního tenanta: Příklad: core/falcontest8-core4sdb26/00DVF000001E16v2AC
  8. Na stránce základy katalogu zadejte název cizího katalogu. Cizí katalog zrcadlí databázi v externím datovém systému, abyste mohli dotazovat a spravovat přístup k datům v této databázi pomocí Azure Databricks a Unity Catalog.

  9. (Volitelné) Kliknutím na test připojení potvrďte, že funguje.

  10. Klikněte na Vytvořit katalog.

  11. Na stránce Access vyberte pracovní prostory, ve kterých mají uživatelé přístup k vytvořenému katalogu. Můžete vybrat Všechny pracovní prostory mají přístup, nebo klepněte na Přiřadit k pracovním prostorům, vyberte pracovní prostory a potom klikněte na Přiřadit.

  12. Změňte vlastníka , který bude moci spravovat přístup ke všem objektům v katalogu. Začněte do textového pole zadávat název entity a potom ve vrácených výsledcích klikněte na tuto entitu.

  13. Udělte oprávnění na katalog. Klikněte na Odsouhlasit:

    a. Uveďte uživatele Principals, kteří budou mít přístup k objektům v katalogu. Začněte do textového pole zadávat název entity a potom ve vrácených výsledcích klikněte na tuto entitu. a. Vyberte přednastavení oprávnění, které se mají každému subjektu udělit. Všichni uživatelé účtu mají ve výchozím nastavení udělené BROWSE.

    • V rozevírací nabídce vyberte Data Reader a poskytněte read oprávnění k objektům v katalogu.
    • V rozevírací nabídce vyberte Datový editor a udělte oprávnění read a modify k objektům v katalogu.
    • Ručně vyberte oprávnění, která chcete udělit.

    a. Klikněte na Povolit.

  14. Klikněte na tlačítko Další.

  15. Na stránce Metadata zadejte páry klíč-hodnota tagů. Další informace najdete v tématu Použití značek na zabezpečitelné objekty v Katalogu Unity.

  16. (Volitelné) Přidejte komentář.

  17. Klikněte na Uložit.

  18. Poznamenejte si Account URL a Connection URL. Tyto hodnoty budete potřebovat k vytvoření cíle sdílení dat v rámci Salesforce.

SQL

  1. V poznámkovém bloku nebo editoru dotazů SQL Databricks spusťte následující příkaz.

    CREATE CONNECTION <connection-name> TYPE SALESFORCE_DATA_CLOUD_FILE_SHARING
    OPTIONS (
        tenant_specific_endpoint '<tenant_specific_endpoint>',
        core_tenant_id '<core_tenant_id>'
    );
    
  2. Přejděte na stránku nově vytvořeného připojení a poznamenejte si Account URL a Connection URL. Tyto hodnoty budete potřebovat k vytvoření cíle sdílení dat v rámci Salesforce.

Vytvořte cíl sdílení dat v Salesforce

Vytvořte v Salesforce cíl sdílení dat pomocí Account URL a Connection URL, které jste získali v předchozím kroku.

Viz Vytvořit cíl sdílení dat (Databricks) v dokumentaci Salesforce.

Mapování datových typů

Při čtení ze sdílení souborů Salesforce Data 360 do Sparku se datové typy mapují takto:

Typ sdílení souborů Salesforce Data 360 Typ Spark
Číslo DecimalType(38; 18)
logický Booleovský typ
Text Typ řetězce
Datum Typ datumu
Datum a čas Typ časového razítka
E-mail (text) Typ řetězce
Procento (číslo) DecimalType(38; 18)
Telefon (text) Typ řetězce
Adresa URL (text) Typ řetězce

Omezení

  • Konektor se nedá použít s clustery s jedním uživatelem.