Megosztás a következőn keresztül:


Oktatóanyag: Az első Delta Live-tábla feldolgozási sor futtatása

Ez az oktatóanyag bemutatja, hogyan konfigurálhat Delta Live Tables-folyamatot egy Databricks-jegyzetfüzet kódjából, és hogyan futtathatja a folyamatot egy folyamatfrissítés aktiválásával. Ez az oktatóanyag egy példafolyamatot tartalmaz egy mintaadatkészlet betöltésére és feldolgozására a Python- és SQL-felületek használatával használt példakóddal. Az oktatóanyag utasításait követve olyan folyamatot is létrehozhat, amely bármilyen, megfelelően definiált Delta Live Tables-szintaxissal rendelkező jegyzetfüzettel rendelkezik.

A Delta Live Tables-folyamatokat konfigurálhatja és aktiválhatja a frissítéseket az Azure Databricks-munkaterület felhasználói felületével vagy az automatizált eszközhasználati lehetőségekkel, például az API-val, a parancssori felülettel, a Databricks-eszközcsomagokkal vagy egy Databricks-munkafolyamat feladataként. A Delta Live Tables funkcióinak és funkcióinak megismeréséhez a Databricks azt javasolja, hogy először használja a felhasználói felületet a folyamatok létrehozásához és futtatásához. Emellett amikor konfigurál egy folyamatot a felhasználói felületen, a Delta Live Tables létrehoz egy JSON-konfigurációt a folyamathoz, amely a programozott munkafolyamatok implementálásához használható.

A Delta Live Tables funkcióinak bemutatásához az oktatóanyagban szereplő példák letöltenek egy nyilvánosan elérhető adatkészletet. A Databricksnek azonban számos módja van arra, hogy adatforrásokhoz csatlakozzon, és betöltse azokat az adatokat, amelyeket a valós használati eseteket implementáló folyamatok fognak használni. Lásd : Adatok betöltése Delta Live-táblákkal.

Követelmények

  • A folyamat elindításához fürtlétrehozási engedéllyel vagy hozzáféréssel kell rendelkeznie egy Delta Live Tables-fürtöt meghatározó fürtszabályzathoz. A Delta Live Tables futtatókörnyezet egy fürtöt hoz létre a feldolgozási sor futtatása előtt, és meghiúsul, ha Ön nem rendelkezik a megfelelő engedéllyel.

  • Az oktatóanyagban szereplő példák használatához a munkaterületen engedélyezni kell a Unity Katalógust .

  • A Unity Katalógusban a következő engedélyekkel kell rendelkeznie:

    • READ VOLUME és WRITE VOLUME, vagy ALL PRIVILEGESa my-volume kötethez.
    • USE SCHEMA vagy ALL PRIVILEGES a sémához default .
    • USE CATALOG vagy ALL PRIVILEGES a main katalógushoz.

    Az engedélyek beállításához tekintse meg a Databricks-rendszergazdai vagy a Unity Catalog-jogosultságokat és a biztonságos objektumokat.

  • Az oktatóanyagban szereplő példák egy Unity Catalog-kötetet használnak a mintaadatok tárolására. A példák használatához hozzon létre egy kötetet, és használja a kötet katalógusát, sémáját és kötetneveit a példák által használt kötetútvonal beállításához.

Feljegyzés

Ha a munkaterületen nincs engedélyezve a Unity Catalog, a cikkhez csatolja a unity katalógust nem igénylő példákat tartalmazó jegyzetfüzeteket . A fenti példák használatához válassza a Hive metastore tárolási lehetőséget a folyamat létrehozásakor.

Hol futtatja a Delta Live Tables-lekérdezéseket?

A Delta Live Tables-lekérdezések elsősorban Databricks-jegyzetfüzetekben vannak implementálva, de a Delta Live Tables nem úgy van kialakítva, hogy interaktívan fusson a jegyzetfüzetcellákban. Ha egy Databricks-jegyzetfüzetben Delta Live Tables szintaxist tartalmazó cellát hajt végre, hibaüzenet jelenik meg. A lekérdezések futtatásához konfigurálnia kell a jegyzetfüzeteket egy folyamat részeként.

Fontos

  • Nem támaszkodhat a jegyzetfüzetek cellaenkénti végrehajtási sorrendjére, amikor lekérdezéseket ír a Delta Live Tableshez. A Delta Live Tables kiértékeli és futtatja a jegyzetfüzetekben definiált összes kódot, de más végrehajtási modellel rendelkezik, mint egy jegyzetfüzet : Az összes parancs futtatása.
  • Egyetlen Delta Live Tables-forráskódfájlban nem keverhet nyelveket. A jegyzetfüzetek például csak Python-lekérdezéseket vagy SQL-lekérdezéseket tartalmazhatnak. Ha több nyelvet kell használnia egy folyamatban, használjon több nyelvspecifikus jegyzetfüzetet vagy fájlt a folyamatban.

A fájlokban tárolt Python-kódot is használhatja. Létrehozhat például egy Python-modult, amely importálható a Python-folyamatokba, vagy definiálhat felhasználó által definiált Python-függvényeket (UDF-eket) az SQL-lekérdezésekben való használathoz. A Python-modulok importálásáról további információt a Python-modulok Importálása Git-mappákból vagy munkaterületfájlokból című témakörben talál. A Python UDF-ek használatáról a felhasználó által definiált skaláris függvények – Python című témakörben olvashat.

Példa: A New York-i babanevek adatainak betöltése és feldolgozása

A cikkben szereplő példa egy nyilvánosan elérhető adatkészletet használ, amely New York állambeli babanevek rekordjait tartalmazza. Az alábbi példák azt mutatják be, hogy a Delta Live Tables-folyamat a következő célokra való használatát mutatja be:

  • Nyers CSV-adatok olvasása nyilvánosan elérhető adathalmazból egy táblába.
  • Olvassa el a nyers adattáblából származó rekordokat, és a Delta Live Tables elvárásaival hozzon létre egy új táblát, amely megtisztított adatokat tartalmaz.
  • Használja a megtisztított rekordokat a származtatott adathalmazokat létrehozó Delta Live Tables-lekérdezések bemeneteként.

Ez a kód a medallion architektúra egyszerűsített példáját mutatja be. Lásd : Mi a medallion lakehouse architektúra?.

A példa implementációi a Python- és SQL-felületekhez tartoznak. A lépéseket követve létrehozhat új jegyzetfüzeteket, amelyek tartalmazzák a példakódot, vagy továbbléphet a folyamat létrehozására, és használhatja az ezen a lapon megadott jegyzetfüzetek egyikét.

Delta Live Tables-folyamat implementálása a Pythonnal

A Delta Live Tables-adathalmazokat létrehozó Python-kódnak DataFrame-eket kell visszaadnia. A Pythonnal és DataFrame-ekkel nem ismert felhasználók számára a Databricks az SQL-felület használatát javasolja. Lásd: Delta Live Tables-folyamat implementálása AZ SQL használatával.

A modulban dlt minden Delta Live Tables Python API implementálva van. A Pythonnal implementált Delta Live Tables-folyamatkódnak explicit módon importálnia kell a dlt modult a Python-jegyzetfüzetek és -fájlok tetején. A Delta Live Tables kulcsfontosságú módon különbözik számos Python-szkripttől: nem hívja meg az adatbetöltést és -átalakítást végző függvényeket Delta Live Tables-adathalmazok létrehozásához. Ehelyett a Delta Live Tables a modul dekorátorfüggvényeit értelmezi a dlt folyamatba betöltött összes fájlban, és létrehoz egy adatfolyam-gráfot.

Az oktatóanyagban szereplő példa implementálásához másolja és illessze be a következő Python-kódot egy új Python-jegyzetfüzetbe. Adja hozzá az egyes példakódrészleteket a jegyzetfüzet saját cellájába a leírt sorrendben. A jegyzetfüzetek létrehozásának lehetőségeiről a Jegyzetfüzet létrehozása című témakörben olvashat.

Amikor Python-felülettel hoz létre folyamatot, alapértelmezés szerint a táblaneveket függvénynevek határozzák meg. A következő Python-példa például három táblát baby_names_rawhoz létre , baby_names_preparedés top_baby_names_2021. A paraméterrel felülbírálhatja a name tábla nevét. Lásd: Delta Live Tables materialized view or streaming table.

Fontos

A folyamat futtatásakor nem várt viselkedés elkerülése érdekében ne tartalmazzon olyan kódot, amely az adathalmazokat definiáló függvényekben esetlegesen mellékhatásokat okoz. További információ: Python-referencia.

A Delta Live Tables modul importálása

A modulban dlt minden Delta Live Tables Python API implementálva van. Explicit módon importálja a modult dlt a Python-jegyzetfüzetek és -fájlok tetején.

Az alábbi példa ezt az importálást mutatja be a következőhöz tartozó importálási utasítások pyspark.sql.functionsmellett.

import dlt
from pyspark.sql.functions import *

Az adatok letöltése

A példához tartozó adatok lekéréséhez töltse le egy CSV-fájlt, és tárolja a kötetben az alábbiak szerint:

import os

os.environ["UNITY_CATALOG_VOLUME_PATH"] = "/Volumes/<catalog-name>/<schema-name>/<volume-name>/"
os.environ["DATASET_DOWNLOAD_URL"] = "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"
os.environ["DATASET_DOWNLOAD_FILENAME"] = "rows.csv"

dbutils.fs.cp(f"{os.environ.get('DATASET_DOWNLOAD_URL')}", f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}")

<schema-name><volume-name> Cserélje le <catalog-name>a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.

Tábla létrehozása objektumtárolóban lévő fájlokból

A Delta Live Tables az Azure Databricks által támogatott összes formátumból támogatja az adatok betöltését. Lásd: Adatformátum beállításai.

A @dlt.table dekoratőr utasítja a Delta Live Tableset, hogy hozzon létre egy táblát, amely egy függvény által visszaadott eredményt DataFrame tartalmazza. Adja hozzá a @dlt.table dekorátort bármely Olyan Python-függvénydefiníció elé, amely egy Spark DataFrame-et ad vissza, hogy regisztráljon egy új táblát a Delta Live Tablesben. Az alábbi példa bemutatja, hogy a függvény nevét táblanévként használja, és egy leíró megjegyzést ad hozzá a táblához:

@dlt.table(
  comment="Popular baby first names in New York. This data was ingested from the New York State Department of Health."
)
def baby_names_raw():
  df = spark.read.csv(f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}", header=True, inferSchema=True)
  df_renamed_column = df.withColumnRenamed("First Name", "First_Name")
  return df_renamed_column

Tábla hozzáadása a folyamat egy felsőbb rétegbeli adatkészletéből

Az aktuális Delta Live Tables-folyamatban deklarált más adathalmazokból is beolvashatja dlt.read() az adatokat. Az új táblák ily módon történő deklarálása olyan függőséget hoz létre, amelyet a Delta Live Tables automatikusan felold a frissítések végrehajtása előtt. Az alábbi kód példákat is tartalmaz az adatminőség elvárásokkal való monitorozására és kényszerítésére. Lásd: Adatminőség kezelése Delta Live Tables használatával.

@dlt.table(
  comment="New York popular baby first name data cleaned and prepared for analysis."
)
@dlt.expect("valid_first_name", "First_Name IS NOT NULL")
@dlt.expect_or_fail("valid_count", "Count > 0")
def baby_names_prepared():
  return (
    dlt.read("baby_names_raw")
      .withColumnRenamed("Year", "Year_Of_Birth")
      .select("Year_Of_Birth", "First_Name", "Count")
  )

Táblázat létrehozása bővített adatnézetekkel

Mivel a Delta Live Tables függőségi grafikonok sorozataként dolgozza fel a folyamatok frissítéseit, az irányítópultokat, BI-t és elemzéseket használó, nagy mértékben gazdagított nézeteket deklarálhatja az adott üzleti logikával rendelkező táblák deklarálásával.

A Delta Live Tables táblái elméletileg egyenértékűek a materializált nézetekkel. A Spark hagyományos nézeteivel ellentétben, amelyek minden egyes lekérdezéskor logikát futtatnak, egy Delta Live Tables-tábla tárolja a lekérdezési eredmények legfrissebb verzióját adatfájlokban. Mivel a Delta Live Tables kezeli a folyamat összes adathalmazának frissítéseit, ütemezheti a folyamatfrissítéseket úgy, hogy megfeleljenek a materializált nézetek késési követelményeinek, és tudják, hogy a táblák lekérdezései az elérhető adatok legújabb verzióját tartalmazzák.

A következő kód által definiált tábla a folyamat felsőbb rétegbeli adataiból származtatott materializált nézet fogalmi hasonlóságát mutatja be:

@dlt.table(
  comment="A table summarizing counts of the top baby names for New York for 2021."
)
def top_baby_names_2021():
  return (
    dlt.read("baby_names_prepared")
      .filter(expr("Year_Of_Birth == 2021"))
      .groupBy("First_Name")
      .agg(sum("Count").alias("Total_Count"))
      .sort(desc("Total_Count"))
      .limit(10)
  )

A jegyzetfüzetet használó folyamat konfigurálásához lásd : Folyamat létrehozása.

Delta Live Tables-folyamat implementálása SQL-lel

A Databricks a Delta Live Tables és az SQL használatát javasolja az SQL-felhasználók számára, hogy új ETL-, betöltési és transzformációs folyamatokat építsenek az Azure Databricksben. A Delta Live Tables SQL-felülete számos új kulcsszóval, szerkezettel és táblaértékű függvénysel bővíti a standard Spark SQL-t. A standard SQL ezen kiegészítései lehetővé teszik a felhasználók számára, hogy új eszközök vagy további fogalmak elsajátítása nélkül deklarálják az adathalmazok közötti függőségeket, és éles szintű infrastruktúrát telepítsenek.

A Spark DataFrame-eket ismerő és az SQL-sel nehezen implementálható, kiterjedtebb teszteléshez és műveletekhez, például metaprogramozási műveletekhez támogatást igénylő felhasználók számára a Databricks a Python-felület használatát javasolja. Lásd: Delta Live Tables-folyamat implementálása a Pythonnal.

Az adatok letöltése

A példában szereplő adatok lekéréséhez másolja ki a következő kódot, illessze be egy új jegyzetfüzetbe, majd futtassa a jegyzetfüzetet. A jegyzetfüzetek létrehozásának lehetőségeiről a Jegyzetfüzet létrehozása című témakörben olvashat.

%sh
wget -O "/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv" "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"

<schema-name><volume-name> Cserélje le <catalog-name>a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.

Táblázat létrehozása fájlokból a Unity Catalogban

A példa további részében másolja ki a következő SQL-kódrészleteket, és illessze be őket egy új SQL-jegyzetfüzetbe, az előző szakasz jegyzetfüzetétől elkülönítve. Adja hozzá az egyes példa SQL-kódrészleteket a jegyzetfüzet saját cellájába a leírt sorrendben.

A Delta Live Tables az Azure Databricks által támogatott összes formátumból támogatja az adatok betöltését. Lásd: Adatformátum beállításai.

Minden Delta Live Table SQL-utasítás szintaxist és szemantikát használ CREATE OR REFRESH . Folyamat frissítésekor a Delta Live Tables megállapítja, hogy a tábla logikailag helyes eredménye növekményes feldolgozással hajtható végre, vagy teljes újraszámításra van-e szükség.

Az alábbi példa egy táblát hoz létre a Unity-katalógus kötetében tárolt CSV-fájl adatainak betöltésével:

CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_raw
COMMENT "Popular baby first names in New York. This data was ingested from the New York State Department of Health."
AS SELECT Year, `First Name` AS First_Name, County, Sex, Count FROM read_files(
  '/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv',
  format => 'csv',
  header => true,
  mode => 'FAILFAST')

<schema-name><volume-name> Cserélje le <catalog-name>a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.

Tábla hozzáadása egy felsőbb rétegbeli adatkészletből a folyamathoz

A virtuális sémával adatokat kérdezhet le az live aktuális Delta Live Tables-folyamatban deklarált többi adathalmazból. Az új táblák ily módon történő deklarálása olyan függőséget hoz létre, amelyet a Delta Live Tables automatikusan felold a frissítések végrehajtása előtt. A live séma a Delta Live Tablesben implementált egyéni kulcsszó, amely helyettesíthető egy célséma helyett, ha közzé szeretné tenni az adathalmazokat. Lásd: A Unity-katalógus használata a Delta Live Tables-folyamatokkal és a Delta Live Tables-folyamatok használata régi Hive-metaadattárral.

Az alábbi kód példákat is tartalmaz az adatminőség elvárásokkal való monitorozására és kényszerítésére. Lásd: Adatminőség kezelése Delta Live Tables használatával.

CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_prepared(
  CONSTRAINT valid_first_name EXPECT (First_Name IS NOT NULL),
  CONSTRAINT valid_count EXPECT (Count > 0) ON VIOLATION FAIL UPDATE
)
COMMENT "New York popular baby first name data cleaned and prepared for analysis."
AS SELECT
  Year AS Year_Of_Birth,
  First_Name,
  Count
FROM live.baby_names_sql_raw;

Bővített adatnézet létrehozása

Mivel a Delta Live Tables függőségi grafikonok sorozataként dolgozza fel a folyamatok frissítéseit, az irányítópultokat, BI-t és elemzéseket használó, nagy mértékben gazdagított nézeteket deklarálhatja az adott üzleti logikával rendelkező táblák deklarálásával.

Az alábbi lekérdezés materializált nézetet használ egy bővített nézet létrehozásához a felsőbb rétegbeli adatokból. A Spark hagyományos nézeteivel ellentétben, amelyek minden alkalommal futtatják a logikát, amikor lekérdezik a nézetet, a materializált nézetek a lekérdezés legújabb verzióját tárolják adatfájlokban. Mivel a Delta Live Tables kezeli a folyamat összes adathalmazának frissítéseit, ütemezheti a folyamatfrissítéseket úgy, hogy megfeleljenek a materializált nézetek késési követelményeinek, és tudják, hogy a táblák lekérdezései az elérhető adatok legújabb verzióját tartalmazzák.

CREATE OR REFRESH MATERIALIZED VIEW top_baby_names_sql_2021
COMMENT "A table summarizing counts of the top baby names for New York for 2021."
AS SELECT
  First_Name,
  SUM(Count) AS Total_Count
FROM live.baby_names_sql_prepared
WHERE Year_Of_Birth = 2021
GROUP BY First_Name
ORDER BY Total_Count DESC
LIMIT 10;

A jegyzetfüzetet használó folyamat konfigurálásához folytassa a folyamat létrehozásának folytatásával.

Folyamat létrehozása

Feljegyzés

  • Mivel a számítási erőforrások teljes mértékben kiszolgáló nélküli DLT-folyamatokhoz vannak felügyelve, a számítási beállítások nem érhetők el, amikor a Kiszolgáló nélküli lehetőséget választja egy folyamathoz.
  • A kiszolgáló nélküli DLT-folyamatok jogosultságáról és engedélyezéséről további információt a kiszolgáló nélküli számítás engedélyezése című témakörben talál.

A Delta Live Tables úgy hoz létre folyamatokat, hogy feloldja a jegyzetfüzetekben vagy fájlokban (más néven forráskódban) definiált függőségeket a Delta Live Tables szintaxisával. Minden forráskódfájl csak egy nyelvet tartalmazhat, de a folyamat különböző nyelveinek forráskódját is kombinálhatja.

  1. Kattintson a Delta Live Tables elemre az oldalsávon, és kattintson a Folyamat létrehozása parancsra.
  2. Adjon nevet a folyamatnak.
  3. (Nem kötelező) Ha kiszolgáló nélküli DLT-folyamatokkal szeretné futtatni a folyamatot, jelölje be a Kiszolgáló nélküli jelölőnégyzetet. Amikor a Kiszolgáló nélküli lehetőséget választja, a számítási beállítások törlődnek a felhasználói felületről. Lásd: Kiszolgáló nélküli Delta Live Tables-folyamat konfigurálása.
  4. (Nem kötelező) Válasszon ki egy termékverziót.
  5. Válassza a Folyamat mód aktiválva lehetőséget.
  6. Konfiguráljon egy vagy több jegyzetfüzetet, amely tartalmazza a folyamat forráskódját. Az Elérési utak szövegmezőbe írja be a jegyzetfüzet elérési útját, vagy kattintson Fájlválasztó ikon a jegyzetfüzet kijelöléséhez.
  7. Válasszon egy célhelyet a folyamat által közzétett adathalmazokhoz, a Hive metaadattárhoz vagy a Unity Katalógushoz. Lásd: Adathalmazok közzététele.
    • Hive metaadattár:
      • (Nem kötelező) Adjon meg egy tárolási helyet a folyamat kimeneti adataihoz. A rendszer alapértelmezett helyet használ, ha üresen hagyja a tárolóhelyet .
      • (Nem kötelező) Adjon meg egy célsémát , amely közzé szeretné tenni az adathalmazt a Hive metaadattárában.
    • Unity Catalog: Adjon meg egy katalógust és egy célsémát az adatkészlet Unity Catalogban való közzétételéhez.
  8. (Nem kötelező) Ha nem a Kiszolgáló nélküli beállítást választotta, konfigurálhatja a folyamat számítási beállításait. A számítási beállítások beállításairól a Delta Live Tables-folyamat számításának konfigurálása című témakörben olvashat.
  9. (Nem kötelező) Az Értesítés hozzáadása gombra kattintva konfigurálhat egy vagy több e-mail-címet a folyamateseményekre vonatkozó értesítések fogadásához. Lásd: E-mail-értesítések hozzáadása folyamateseményekhez.
  10. (Nem kötelező) Konfigurálja a folyamat speciális beállításait. A speciális beállítások beállításainak megismeréséhez tekintse meg a Delta Live Tables-folyamat konfigurálását ismertető témakört.
  11. Kattintson a Létrehozás gombra.

A Folyamat részletei lap a Létrehozás gombra kattintás után jelenik meg. A folyamat eléréséhez kattintson a folyamat nevére a Delta Live Tables lapon.

Folyamatfrissítés indítása

Egy folyamat frissítésének elindításához kattintson a Delta Live Tables Start Icon felső panelen található gombra. A rendszer egy üzenetet ad vissza, amely megerősíti, hogy a folyamat elindult.

A frissítés sikeres elindítása után a Delta Live Tables rendszer:

  1. Fürt indítása a Delta Live Tables rendszer által létrehozott fürtkonfigurációval. Egyéni fürtkonfigurációt is megadhat.
  2. Olyan táblákat hoz létre, amelyek nem léteznek, és gondoskodik arról, hogy a séma megfelelő legyen a meglévő táblákhoz.
  3. Frissíti a táblákat a legújabb elérhető adatokkal.
  4. A frissítés befejezésekor leállítja a fürtöt.

Feljegyzés

A végrehajtási mód alapértelmezés szerint Éles állapotra van állítva, amely az egyes frissítésekhez rövid élettartamú számítási erőforrásokat helyez üzembe. A fejlesztési móddal módosíthatja ezt a viselkedést, így ugyanazokat a számítási erőforrásokat használhatja több folyamatfrissítéshez a fejlesztés és tesztelés során. Lásd: Fejlesztési és éles üzemmódok.

Adathalmazok közzététele

A Delta Live Tables-adathalmazok lekérdezésre való elérhetővé tétele a táblák Hive-metaadattárban vagy Unity-katalógusban való közzétételével tehető elérhetővé. Ha nem ad meg célhelyet az adatok közzétételéhez, a Delta Live Tables-folyamatokban létrehozott táblákat csak ugyanazon folyamat más műveletei érhetik el. Lásd: Delta Live Tables-folyamatok használata régi Hive-metaadattárral és Unity-katalógus használata a Delta Live Tables-folyamatokkal.

Példa forráskódfüzetekre

Ezeket a jegyzetfüzeteket importálhatja egy Azure Databricks-munkaterületre, és használhatja őket egy Delta Live Tables-folyamat üzembe helyezéséhez. Lásd: Folyamat létrehozása.

Ismerkedés a Delta Live Tables Python-jegyzetfüzetével

Jegyzetfüzet beszerzése

Ismerkedés a Delta Live Tables SQL-jegyzetfüzetével

Jegyzetfüzet beszerzése

Példa forráskód-jegyzetfüzetek Unity-katalógus nélküli munkaterületekhez

Ezeket a jegyzetfüzeteket a Unity Catalog engedélyezése nélkül importálhatja egy Azure Databricks-munkaterületre, és használhatja őket Delta Live Tables-folyamat üzembe helyezésére. Lásd: Folyamat létrehozása.

Ismerkedés a Delta Live Tables Python-jegyzetfüzetével

Jegyzetfüzet beszerzése

Ismerkedés a Delta Live Tables SQL-jegyzetfüzetével

Jegyzetfüzet beszerzése