Použití transformací dbt v úloze Azure Databricks

Projekty dbt Core můžete spustit jako úkol v úloze Azure Databricks. Spuštěním projektu dbt Core jako úlohy můžete využívat následující funkce úloh Azure Databricks:

  • Automatizujte úlohy dbt a naplánujte pracovní postupy, které zahrnují úlohy dbt.
  • Monitorujte transformace dbt a odesílejte oznámení o stavu transformací.
  • Zahrňte projekt dbt do pracovního postupu s dalšími úkoly. Pracovní postup může například ingestovat data pomocí automatického zavaděče, transformovat data pomocí dbt a analyzovat data pomocí úlohy poznámkového bloku.
  • Automatická archivace artefaktů ze spuštění úloh, včetně protokolů, výsledků, manifestů a konfigurace.

Další informace o dbt Core najdete v dokumentaci k dbt.

Vývojový a produkční pracovní postup

Databricks doporučuje vyvíjet projekty dbt ve službě Databricks SQL Warehouse. Pomocí skladu Databricks SQL můžete otestovat SQL vygenerované nástrojem dbt a pomocí historie dotazů skladu SQL ladit dotazy generované dbt.

Ke spuštění transformací dbt v produkčním prostředí doporučuje Databricks použít úlohu dbt v úloze Databricks. Ve výchozím nastavení úloha dbt spustí proces dbt Python pomocí výpočetních prostředků Azure Databricks a dbt vygenerovaného SQL pro vybraný SQL Warehouse.

Transformace dbt můžete spouštět na bezserverovém SQL Warehouse nebo pro SQL Warehouse, výpočetních prostředcích Azure Databricks nebo v jakémkoli jiném skladu podporovaném dbt. Tento článek popisuje první dvě možnosti s příklady.

Pokud je váš pracovní prostor s povoleným katalogem Unity a bezserverové pracovní postupy je ve výchozím nastavení povolená, úloha běží na bezserverových výpočetních prostředcích .

Poznámka:

Vývoj modelů dbt pro SQL Warehouse a jejich spouštění v produkčním prostředí ve výpočetních prostředcích Azure Databricks může vést k drobným rozdílům v podpoře výkonu a jazyka SQL. Databricks doporučuje použít stejnou verzi Databricks Runtime pro výpočetní prostředky a SQL Warehouse.

Požadavky

  • Informace o tom, jak pomocí dbt Core a dbt-databricks balíčku vytvářet a spouštět projekty dbt ve vašem vývojovém prostředí, najdete v tématu Připojení dbt Core.

    Databricks doporučuje balíček dbt-databricks , nikoli balíček dbt-spark. Balíček dbt-databricks je větev balíčku dbt-spark optimalizovaná pro Databricks.

  • Pokud chcete použít projekty dbt v úloze Azure Databricks, musíte nastavit integraci Gitu se složkami Git Databricks. Z DBFS nelze spustit projekt dbt.

  • Musíte mít povolené bezserverové nebo pro SQL Warehouse.

  • Musíte mít nárok Sql na Databricks.

Vytvoření a spuštění první úlohy dbt

Následující příklad používá projekt jaffle_shop , ukázkový projekt, který demonstruje základní koncepty dbt. Pokud chcete vytvořit úlohu, která spustí projekt jaffle shopu, proveďte následující kroky.

  1. Přejděte na cílovou stránku Azure Databricks a udělejte jednu z těchto věcí:

    • Na bočním panelu klikněte na Ikona ÚlohPracovní postupy a klikněte na .Tlačítko Vytvořit úlohu
    • Na bočním panelu klikněte na Nová ikonaNový a vyberte Úloha.
  2. V textovém poli úkolu na kartě Úkoly nahraďte přidat název vaší úlohy... názvem vaší úlohy.

  3. Do pole Název úkolu zadejte název úkolu.

  4. V části Typ vyberte typ úlohy dbt .

    Přidání úlohy dbt

  5. V rozevírací nabídce Zdroj můžete vybrat pracovní prostor a použít projekt dbt umístěný ve složce pracovního prostoru Azure Databricks nebo u projektu umístěného ve vzdáleném úložišti Git. Vzhledem k tomu, že tento příklad používá projekt jaffle shopu umístěný v úložišti Git, vyberte poskytovatele Gitu, klikněte na Upravit a zadejte podrobnosti o úložišti GitHub v obchodě Jaffle.

    Konfigurace úložiště projektu dbt

    • V adrese URL úložiště Git zadejte adresu URL projektu jaffle shopu.
    • V odkazu Gitu (větev / značka / potvrzení) zadejte main. Můžete také použít značku nebo SHA.
  6. Klikněte na tlačítko Potvrdit.

  7. Do textových polí příkazů dbt zadejte příkazy dbt, které se mají spustit (deps, počáteční a spustit). Musíte předponovat každý příkaz pomocí dbtpříkazu . Příkazy se spouští v zadaném pořadí.

    Konfigurace příkazů dbt

  8. Ve službě SQL Warehouse vyberte SQL Warehouse, aby se spustil SQL vygenerovaný dbt. Rozevírací nabídka SQL Warehouse zobrazuje jenom bezserverové a profesionální sql warehouse.

  9. (Volitelné) Můžete zadat schéma pro výstup úkolu. Ve výchozím nastavení se schéma default používá.

  10. (Volitelné) Pokud chcete změnit konfiguraci výpočetních prostředků, na které běží dbt Core, klikněte na výpočetní prostředky rozhraní příkazového řádku dbt.

  11. (Volitelné) Pro úlohu můžete zadat verzi dbt-databricks. Pokud chcete například připnout úlohu dbt na konkrétní verzi pro vývoj a produkci:

    • V části Závislé knihovny klikněte na Ikona Odstranit tlačítko vedle aktuální verze dbt-databricks.
    • Klikněte na tlačítko Přidat.
    • V dialogovém okně Přidat závislá knihovna vyberte PyPI a zadejte verzi dbt-package do textového pole Balíček (například dbt-databricks==1.6.0).
    • Klikněte na tlačítko Přidat.

    Konfigurace verze dbt-databricks

    Poznámka:

    Databricks doporučuje připnout úlohy dbt na konkrétní verzi balíčku dbt-databricks, aby se zajistila stejná verze pro vývojová a produkční spuštění. Databricks doporučuje verzi 1.6.0 nebo vyšší balíčku dbt-databricks.

  12. Klikněte na Vytvořit.

  13. Chcete-li spustit úlohu nyní, klikněte na Tlačítko Spustit nynítlačítko .

Zobrazení výsledků úlohy dbt

Po dokončení úlohy můžete výsledky otestovat spuštěním dotazů SQL z poznámkového bloku nebo spuštěním dotazů ve skladu Databricks. Podívejte se například na následující ukázkové dotazy:

 SHOW tables IN <schema>;
SELECT * from <schema>.customers LIMIT 10;

Nahraďte <schema> názvem schématu nakonfigurovaným v konfiguraci úlohy.

Příklad rozhraní API

Rozhraní API pro úlohy můžete také použít k vytváření a správě úloh, které zahrnují úlohy dbt. Následující příklad vytvoří úlohu s jednou úlohou dbt:

{
  "name": "jaffle_shop dbt job",
  "max_concurrent_runs": 1,
  "git_source": {
    "git_url": "https://github.com/dbt-labs/jaffle_shop",
    "git_provider": "gitHub",
    "git_branch": "main"
  },
  "job_clusters": [
    {
      "job_cluster_key": "dbt_CLI",
      "new_cluster": {
        "spark_version": "10.4.x-photon-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 0,
        "spark_conf": {
          "spark.master": "local[*, 4]",
          "spark.databricks.cluster.profile": "singleNode"
        },
        "custom_tags": {
          "ResourceClass": "SingleNode"
        }
      }
    }
  ],
  "tasks": [
    {
      "task_key": "transform",
      "job_cluster_key": "dbt_CLI",
      "dbt_task": {
        "commands": [
          "dbt deps",
          "dbt seed",
          "dbt run"
        ],
        "warehouse_id": "1a234b567c8de912"
      },
      "libraries": [
        {
          "pypi": {
            "package": "dbt-databricks>=1.0.0,<2.0.0"
          }
        }
      ]
    }
  ]
}

(Upřesnit) Spuštění dbt s vlastním profilem

Pokud chcete spustit úlohu dbt pomocí SQL Warehouse (doporučeno) nebo výpočetních prostředků pro celý účel, použijte vlastní profiles.yml definování skladu nebo výpočetních prostředků Azure Databricks pro připojení. Pokud chcete vytvořit úlohu, která spouští projekt jaffle shopu s výpočetním prostředím skladu nebo pro celý účel, proveďte následující kroky.

Poznámka:

Jako cíl pro úlohu dbt je možné použít pouze výpočetní prostředky SQL Warehouse nebo pro všechny účely. Výpočetní prostředky úlohy nelze použít jako cíl pro dbt.

  1. Vytvořte fork úložiště jaffle_shop .

  2. Naklonujte forkované úložiště na plochu. Můžete například spustit příkaz podobný tomuto:

    git clone https://github.com/<username>/jaffle_shop.git
    

    Nahraďte <username> popisovačem GitHubu.

  3. Vytvořte v adresáři nový soubor profiles.ymljaffle_shop s následujícím obsahem:

     jaffle_shop:
       target: databricks_job
       outputs:
         databricks_job:
          type: databricks
          method: http
          schema: "<schema>"
          host: "<http-host>"
          http_path: "<http-path>"
          token: "{{ env_var('DBT_ACCESS_TOKEN') }}"
    
    • Nahraďte <schema> názvem schématu pro tabulky projektu.
    • Pokud chcete spustit úlohu dbt s SQL Warehouse, nahraďte <http-host>hodnotu název hostitele serveru na kartě Připojení ion Details pro váš SQL Warehouse. Pokud chcete spustit úlohu dbt s výpočetními prostředky pro všechny účely, nahraďte <http-host>hodnotu názvu hostitele serveru na kartě Upřesnit možnosti JDBC/ODBC pro výpočetní prostředky Azure Databricks.
    • Pokud chcete spustit úlohu dbt s SQL Warehouse, nahraďte <http-path>hodnotu CESTY HTTP na kartě Připojení ion Details (Podrobnosti) pro váš SQL Warehouse. Pokud chcete spustit úlohu dbt s výpočetními prostředky pro všechny účely, nahraďte <http-path>hodnotu cesty HTTP na kartě Upřesnit možnosti JDBC/ODBC pro výpočetní prostředky Azure Databricks.

    V souboru nezadáte tajné kódy, jako jsou přístupové tokeny, protože tento soubor zkontrolujete do správy zdrojového kódu. Místo toho tento soubor používá funkci šablon dbt k dynamickému vkládání přihlašovacích údajů za běhu.

    Poznámka:

    Vygenerované přihlašovací údaje jsou platné po dobu běhu, maximálně 30 dnů a po dokončení se automaticky odvolají.

  4. Zkontrolujte tento soubor do Gitu a nasdílejte ho do vašeho forku úložiště. Můžete například spouštět příkazy jako následující:

    git add profiles.yml
    git commit -m "adding profiles.yml for my Databricks job"
    git push
    
  5. Na bočním panelu uživatelského rozhraní Databricks klikněte na Ikona ÚlohPracovní postupy.

  6. Vyberte úlohu dbt a klikněte na kartu Úkoly .

  7. Ve zdroji klikněte na Upravit a zadejte podrobnosti o úložišti GitHubu pro forked jaffle shop.

    Konfigurace rozvětvovaného úložiště projektu

  8. Ve službě SQL Warehouse vyberte None (Manual).

  9. V adresáři profilů zadejte relativní cestu k adresáři obsahujícímu profiles.yml soubor. Ponechte hodnotu cesty prázdnou, pokud chcete použít výchozí hodnotu kořenového adresáře úložiště.

(Upřesnit) Použití modelů dbt Python v pracovním postupu

Poznámka:

Podpora dbt pro modely Pythonu je v beta verzi a vyžaduje dbt 1.3 nebo vyšší.

Dbt teď podporuje modely Pythonu v konkrétních datových skladech, včetně Databricks. Pomocí modelů dbt Python můžete pomocí nástrojů z ekosystému Python implementovat transformace, které se obtížně implementují pomocí SQL. Můžete vytvořit úlohu Azure Databricks, která spustí jeden úkol pomocí modelu dbt Python, nebo můžete úkol dbt zahrnout jako součást pracovního postupu, který zahrnuje více úkolů.

Modely Pythonu nelze spouštět v úloze dbt pomocí SQL Warehouse. Další informace o používání modelů dbt Python s Azure Databricks najdete v dokumentaci ke konkrétním datovým skladům.

Chyby a řešení problémů

Chyba souboru profilu neexistuje .

Chybová zpráva:

dbt looked for a profiles.yml file in /tmp/.../profiles.yml but did not find one.

Možné příčiny:

Soubor profiles.yml nebyl v zadaném $PATH nalezen. Ujistěte se, že kořen projektu dbt obsahuje soubor profiles.yml.