Oktatóanyag: Az első Delta Live-tábla feldolgozási sor futtatása
Ez az oktatóanyag bemutatja, hogyan konfigurálhat Delta Live Tables-folyamatot egy Databricks-jegyzetfüzet kódjából, és hogyan futtathatja a folyamatot egy folyamatfrissítés aktiválásával. Ez az oktatóanyag egy példafolyamatot tartalmaz egy mintaadatkészlet betöltésére és feldolgozására a Python- és SQL-felületek használatával használt példakóddal. Az oktatóanyag utasításait követve olyan folyamatot is létrehozhat, amely bármilyen, megfelelően definiált Delta Live Tables-szintaxissal rendelkező jegyzetfüzettel rendelkezik.
A Delta Live Tables-folyamatokat konfigurálhatja és aktiválhatja a frissítéseket az Azure Databricks-munkaterület felhasználói felületével vagy az automatizált eszközhasználati lehetőségekkel, például az API-val, a parancssori felülettel, a Databricks-eszközcsomagokkal vagy egy Databricks-munkafolyamat feladataként. A Delta Live Tables funkcióinak és funkcióinak megismeréséhez a Databricks azt javasolja, hogy először használja a felhasználói felületet a folyamatok létrehozásához és futtatásához. Emellett amikor konfigurál egy folyamatot a felhasználói felületen, a Delta Live Tables létrehoz egy JSON-konfigurációt a folyamathoz, amely a programozott munkafolyamatok implementálásához használható.
A Delta Live Tables funkcióinak bemutatásához az oktatóanyagban szereplő példák letöltenek egy nyilvánosan elérhető adatkészletet. A Databricksnek azonban számos módja van arra, hogy adatforrásokhoz csatlakozzon, és betöltse azokat az adatokat, amelyeket a valós használati eseteket implementáló folyamatok fognak használni. Lásd : Adatok betöltése Delta Live-táblákkal.
Követelmények
A folyamat elindításához fürtlétrehozási engedéllyel vagy hozzáféréssel kell rendelkeznie egy Delta Live Tables-fürtöt meghatározó fürtszabályzathoz. A Delta Live Tables futtatókörnyezet egy fürtöt hoz létre a feldolgozási sor futtatása előtt, és meghiúsul, ha Ön nem rendelkezik a megfelelő engedéllyel.
Az oktatóanyagban szereplő példák használatához a munkaterületen engedélyezni kell a Unity Katalógust .
A Unity Katalógusban a következő engedélyekkel kell rendelkeznie:
READ VOLUME
ésWRITE VOLUME
, vagyALL PRIVILEGES
amy-volume
kötethez.USE SCHEMA
vagyALL PRIVILEGES
a sémáhozdefault
.USE CATALOG
vagyALL PRIVILEGES
amain
katalógushoz.
Az engedélyek beállításához tekintse meg a Databricks-rendszergazdai vagy a Unity Catalog-jogosultságokat és a biztonságos objektumokat.
Az oktatóanyagban szereplő példák egy Unity Catalog-kötetet használnak a mintaadatok tárolására. A példák használatához hozzon létre egy kötetet, és használja a kötet katalógusát, sémáját és kötetneveit a példák által használt kötetútvonal beállításához.
Feljegyzés
Ha a munkaterületen nincs engedélyezve a Unity Catalog, a cikkhez csatolja a unity katalógust nem igénylő példákat tartalmazó jegyzetfüzeteket . A fenti példák használatához válassza a Hive metastore
tárolási lehetőséget a folyamat létrehozásakor.
Hol futtatja a Delta Live Tables-lekérdezéseket?
A Delta Live Tables-lekérdezések elsősorban Databricks-jegyzetfüzetekben vannak implementálva, de a Delta Live Tables nem úgy van kialakítva, hogy interaktívan fusson a jegyzetfüzetcellákban. Ha egy Databricks-jegyzetfüzetben Delta Live Tables szintaxist tartalmazó cellát hajt végre, hibaüzenet jelenik meg. A lekérdezések futtatásához konfigurálnia kell a jegyzetfüzeteket egy folyamat részeként.
Fontos
- Nem támaszkodhat a jegyzetfüzetek cellaenkénti végrehajtási sorrendjére, amikor lekérdezéseket ír a Delta Live Tableshez. A Delta Live Tables kiértékeli és futtatja a jegyzetfüzetekben definiált összes kódot, de más végrehajtási modellel rendelkezik, mint egy jegyzetfüzet : Az összes parancs futtatása.
- Egyetlen Delta Live Tables-forráskódfájlban nem keverhet nyelveket. A jegyzetfüzetek például csak Python-lekérdezéseket vagy SQL-lekérdezéseket tartalmazhatnak. Ha több nyelvet kell használnia egy folyamatban, használjon több nyelvspecifikus jegyzetfüzetet vagy fájlt a folyamatban.
A fájlokban tárolt Python-kódot is használhatja. Létrehozhat például egy Python-modult, amely importálható a Python-folyamatokba, vagy definiálhat felhasználó által definiált Python-függvényeket (UDF-eket) az SQL-lekérdezésekben való használathoz. A Python-modulok importálásáról további információt a Python-modulok Importálása Git-mappákból vagy munkaterületfájlokból című témakörben talál. A Python UDF-ek használatáról a felhasználó által definiált skaláris függvények – Python című témakörben olvashat.
Példa: A New York-i babanevek adatainak betöltése és feldolgozása
A cikkben szereplő példa egy nyilvánosan elérhető adatkészletet használ, amely New York állambeli babanevek rekordjait tartalmazza. Az alábbi példák azt mutatják be, hogy a Delta Live Tables-folyamat a következő célokra való használatát mutatja be:
- Nyers CSV-adatok olvasása nyilvánosan elérhető adathalmazból egy táblába.
- Olvassa el a nyers adattáblából származó rekordokat, és a Delta Live Tables elvárásaival hozzon létre egy új táblát, amely megtisztított adatokat tartalmaz.
- Használja a megtisztított rekordokat a származtatott adathalmazokat létrehozó Delta Live Tables-lekérdezések bemeneteként.
Ez a kód a medallion architektúra egyszerűsített példáját mutatja be. Lásd : Mi a medallion lakehouse architektúra?.
A példa implementációi a Python- és SQL-felületekhez tartoznak. A lépéseket követve létrehozhat új jegyzetfüzeteket, amelyek tartalmazzák a példakódot, vagy továbbléphet a folyamat létrehozására, és használhatja az ezen a lapon megadott jegyzetfüzetek egyikét.
Delta Live Tables-folyamat implementálása a Pythonnal
A Delta Live Tables-adathalmazokat létrehozó Python-kódnak DataFrame-eket kell visszaadnia. A Pythonnal és DataFrame-ekkel nem ismert felhasználók számára a Databricks az SQL-felület használatát javasolja. Lásd: Delta Live Tables-folyamat implementálása AZ SQL használatával.
A modulban dlt
minden Delta Live Tables Python API implementálva van. A Pythonnal implementált Delta Live Tables-folyamatkódnak explicit módon importálnia kell a dlt
modult a Python-jegyzetfüzetek és -fájlok tetején. A Delta Live Tables kulcsfontosságú módon különbözik számos Python-szkripttől: nem hívja meg az adatbetöltést és -átalakítást végző függvényeket Delta Live Tables-adathalmazok létrehozásához. Ehelyett a Delta Live Tables a modul dekorátorfüggvényeit értelmezi a dlt
folyamatba betöltött összes fájlban, és létrehoz egy adatfolyam-gráfot.
Az oktatóanyagban szereplő példa implementálásához másolja és illessze be a következő Python-kódot egy új Python-jegyzetfüzetbe. Adja hozzá az egyes példakódrészleteket a jegyzetfüzet saját cellájába a leírt sorrendben. A jegyzetfüzetek létrehozásának lehetőségeiről a Jegyzetfüzet létrehozása című témakörben olvashat.
Amikor Python-felülettel hoz létre folyamatot, alapértelmezés szerint a táblaneveket függvénynevek határozzák meg. A következő Python-példa például három táblát baby_names_raw
hoz létre , baby_names_prepared
és top_baby_names_2021
. A paraméterrel felülbírálhatja a name
tábla nevét. Lásd: Delta Live Tables materialized view or streaming table.
Fontos
A folyamat futtatásakor nem várt viselkedés elkerülése érdekében ne tartalmazzon olyan kódot, amely az adathalmazokat definiáló függvényekben esetlegesen mellékhatásokat okoz. További információ: Python-referencia.
A Delta Live Tables modul importálása
A modulban dlt
minden Delta Live Tables Python API implementálva van. Explicit módon importálja a modult dlt
a Python-jegyzetfüzetek és -fájlok tetején.
Az alábbi példa ezt az importálást mutatja be a következőhöz tartozó importálási utasítások pyspark.sql.functions
mellett.
import dlt
from pyspark.sql.functions import *
Az adatok letöltése
A példához tartozó adatok lekéréséhez töltse le egy CSV-fájlt, és tárolja a kötetben az alábbiak szerint:
import os
os.environ["UNITY_CATALOG_VOLUME_PATH"] = "/Volumes/<catalog-name>/<schema-name>/<volume-name>/"
os.environ["DATASET_DOWNLOAD_URL"] = "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"
os.environ["DATASET_DOWNLOAD_FILENAME"] = "rows.csv"
dbutils.fs.cp(f"{os.environ.get('DATASET_DOWNLOAD_URL')}", f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}")
<schema-name>
<volume-name>
Cserélje le <catalog-name>
a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.
Tábla létrehozása objektumtárolóban lévő fájlokból
A Delta Live Tables az Azure Databricks által támogatott összes formátumból támogatja az adatok betöltését. Lásd: Adatformátum beállításai.
A @dlt.table
dekoratőr utasítja a Delta Live Tableset, hogy hozzon létre egy táblát, amely egy függvény által visszaadott eredményt DataFrame
tartalmazza. Adja hozzá a @dlt.table
dekorátort bármely Olyan Python-függvénydefiníció elé, amely egy Spark DataFrame-et ad vissza, hogy regisztráljon egy új táblát a Delta Live Tablesben. Az alábbi példa bemutatja, hogy a függvény nevét táblanévként használja, és egy leíró megjegyzést ad hozzá a táblához:
@dlt.table(
comment="Popular baby first names in New York. This data was ingested from the New York State Department of Health."
)
def baby_names_raw():
df = spark.read.csv(f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}", header=True, inferSchema=True)
df_renamed_column = df.withColumnRenamed("First Name", "First_Name")
return df_renamed_column
Tábla hozzáadása a folyamat egy felsőbb rétegbeli adatkészletéből
Az aktuális Delta Live Tables-folyamatban deklarált más adathalmazokból is beolvashatja dlt.read()
az adatokat. Az új táblák ily módon történő deklarálása olyan függőséget hoz létre, amelyet a Delta Live Tables automatikusan felold a frissítések végrehajtása előtt. Az alábbi kód példákat is tartalmaz az adatminőség elvárásokkal való monitorozására és kényszerítésére. Lásd: Adatminőség kezelése Delta Live Tables használatával.
@dlt.table(
comment="New York popular baby first name data cleaned and prepared for analysis."
)
@dlt.expect("valid_first_name", "First_Name IS NOT NULL")
@dlt.expect_or_fail("valid_count", "Count > 0")
def baby_names_prepared():
return (
dlt.read("baby_names_raw")
.withColumnRenamed("Year", "Year_Of_Birth")
.select("Year_Of_Birth", "First_Name", "Count")
)
Táblázat létrehozása bővített adatnézetekkel
Mivel a Delta Live Tables függőségi grafikonok sorozataként dolgozza fel a folyamatok frissítéseit, az irányítópultokat, BI-t és elemzéseket használó, nagy mértékben gazdagított nézeteket deklarálhatja az adott üzleti logikával rendelkező táblák deklarálásával.
A Delta Live Tables táblái elméletileg egyenértékűek a materializált nézetekkel. A Spark hagyományos nézeteivel ellentétben, amelyek minden egyes lekérdezéskor logikát futtatnak, egy Delta Live Tables-tábla tárolja a lekérdezési eredmények legfrissebb verzióját adatfájlokban. Mivel a Delta Live Tables kezeli a folyamat összes adathalmazának frissítéseit, ütemezheti a folyamatfrissítéseket úgy, hogy megfeleljenek a materializált nézetek késési követelményeinek, és tudják, hogy a táblák lekérdezései az elérhető adatok legújabb verzióját tartalmazzák.
A következő kód által definiált tábla a folyamat felsőbb rétegbeli adataiból származtatott materializált nézet fogalmi hasonlóságát mutatja be:
@dlt.table(
comment="A table summarizing counts of the top baby names for New York for 2021."
)
def top_baby_names_2021():
return (
dlt.read("baby_names_prepared")
.filter(expr("Year_Of_Birth == 2021"))
.groupBy("First_Name")
.agg(sum("Count").alias("Total_Count"))
.sort(desc("Total_Count"))
.limit(10)
)
A jegyzetfüzetet használó folyamat konfigurálásához lásd : Folyamat létrehozása.
Delta Live Tables-folyamat implementálása SQL-lel
A Databricks a Delta Live Tables és az SQL használatát javasolja az SQL-felhasználók számára, hogy új ETL-, betöltési és transzformációs folyamatokat építsenek az Azure Databricksben. A Delta Live Tables SQL-felülete számos új kulcsszóval, szerkezettel és táblaértékű függvénysel bővíti a standard Spark SQL-t. A standard SQL ezen kiegészítései lehetővé teszik a felhasználók számára, hogy új eszközök vagy további fogalmak elsajátítása nélkül deklarálják az adathalmazok közötti függőségeket, és éles szintű infrastruktúrát telepítsenek.
A Spark DataFrame-eket ismerő és az SQL-sel nehezen implementálható, kiterjedtebb teszteléshez és műveletekhez, például metaprogramozási műveletekhez támogatást igénylő felhasználók számára a Databricks a Python-felület használatát javasolja. Lásd: Delta Live Tables-folyamat implementálása a Pythonnal.
Az adatok letöltése
A példában szereplő adatok lekéréséhez másolja ki a következő kódot, illessze be egy új jegyzetfüzetbe, majd futtassa a jegyzetfüzetet. A jegyzetfüzetek létrehozásának lehetőségeiről a Jegyzetfüzet létrehozása című témakörben olvashat.
%sh
wget -O "/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv" "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"
<schema-name>
<volume-name>
Cserélje le <catalog-name>
a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.
Táblázat létrehozása fájlokból a Unity Catalogban
A példa további részében másolja ki a következő SQL-kódrészleteket, és illessze be őket egy új SQL-jegyzetfüzetbe, az előző szakasz jegyzetfüzetétől elkülönítve. Adja hozzá az egyes példa SQL-kódrészleteket a jegyzetfüzet saját cellájába a leírt sorrendben.
A Delta Live Tables az Azure Databricks által támogatott összes formátumból támogatja az adatok betöltését. Lásd: Adatformátum beállításai.
Minden Delta Live Table SQL-utasítás szintaxist és szemantikát használ CREATE OR REFRESH
. Folyamat frissítésekor a Delta Live Tables megállapítja, hogy a tábla logikailag helyes eredménye növekményes feldolgozással hajtható végre, vagy teljes újraszámításra van-e szükség.
Az alábbi példa egy táblát hoz létre a Unity-katalógus kötetében tárolt CSV-fájl adatainak betöltésével:
CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_raw
COMMENT "Popular baby first names in New York. This data was ingested from the New York State Department of Health."
AS SELECT Year, `First Name` AS First_Name, County, Sex, Count FROM read_files(
'/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv',
format => 'csv',
header => true,
mode => 'FAILFAST')
<schema-name>
<volume-name>
Cserélje le <catalog-name>
a unitykatalógus köteteinek katalógusát, sémáját és kötetnevét.
Tábla hozzáadása egy felsőbb rétegbeli adatkészletből a folyamathoz
A virtuális sémával adatokat kérdezhet le az live
aktuális Delta Live Tables-folyamatban deklarált többi adathalmazból. Az új táblák ily módon történő deklarálása olyan függőséget hoz létre, amelyet a Delta Live Tables automatikusan felold a frissítések végrehajtása előtt. A live
séma a Delta Live Tablesben implementált egyéni kulcsszó, amely helyettesíthető egy célséma helyett, ha közzé szeretné tenni az adathalmazokat. Lásd: A Unity-katalógus használata a Delta Live Tables-folyamatokkal és a Delta Live Tables-folyamatok használata régi Hive-metaadattárral.
Az alábbi kód példákat is tartalmaz az adatminőség elvárásokkal való monitorozására és kényszerítésére. Lásd: Adatminőség kezelése Delta Live Tables használatával.
CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_prepared(
CONSTRAINT valid_first_name EXPECT (First_Name IS NOT NULL),
CONSTRAINT valid_count EXPECT (Count > 0) ON VIOLATION FAIL UPDATE
)
COMMENT "New York popular baby first name data cleaned and prepared for analysis."
AS SELECT
Year AS Year_Of_Birth,
First_Name,
Count
FROM live.baby_names_sql_raw;
Bővített adatnézet létrehozása
Mivel a Delta Live Tables függőségi grafikonok sorozataként dolgozza fel a folyamatok frissítéseit, az irányítópultokat, BI-t és elemzéseket használó, nagy mértékben gazdagított nézeteket deklarálhatja az adott üzleti logikával rendelkező táblák deklarálásával.
Az alábbi lekérdezés materializált nézetet használ egy bővített nézet létrehozásához a felsőbb rétegbeli adatokból. A Spark hagyományos nézeteivel ellentétben, amelyek minden alkalommal futtatják a logikát, amikor lekérdezik a nézetet, a materializált nézetek a lekérdezés legújabb verzióját tárolják adatfájlokban. Mivel a Delta Live Tables kezeli a folyamat összes adathalmazának frissítéseit, ütemezheti a folyamatfrissítéseket úgy, hogy megfeleljenek a materializált nézetek késési követelményeinek, és tudják, hogy a táblák lekérdezései az elérhető adatok legújabb verzióját tartalmazzák.
CREATE OR REFRESH MATERIALIZED VIEW top_baby_names_sql_2021
COMMENT "A table summarizing counts of the top baby names for New York for 2021."
AS SELECT
First_Name,
SUM(Count) AS Total_Count
FROM live.baby_names_sql_prepared
WHERE Year_Of_Birth = 2021
GROUP BY First_Name
ORDER BY Total_Count DESC
LIMIT 10;
A jegyzetfüzetet használó folyamat konfigurálásához folytassa a folyamat létrehozásának folytatásával.
Folyamat létrehozása
Feljegyzés
- Mivel a számítási erőforrások teljes mértékben kiszolgáló nélküli DLT-folyamatokhoz vannak felügyelve, a számítási beállítások nem érhetők el, amikor a Kiszolgáló nélküli lehetőséget választja egy folyamathoz.
- A kiszolgáló nélküli DLT-folyamatok jogosultságáról és engedélyezéséről további információt a kiszolgáló nélküli számítás engedélyezése című témakörben talál.
A Delta Live Tables úgy hoz létre folyamatokat, hogy feloldja a jegyzetfüzetekben vagy fájlokban (más néven forráskódban) definiált függőségeket a Delta Live Tables szintaxisával. Minden forráskódfájl csak egy nyelvet tartalmazhat, de a folyamat különböző nyelveinek forráskódját is kombinálhatja.
- Kattintson a Delta Live Tables elemre az oldalsávon, és kattintson a Folyamat létrehozása parancsra.
- Adjon nevet a folyamatnak.
- (Nem kötelező) Ha kiszolgáló nélküli DLT-folyamatokkal szeretné futtatni a folyamatot, jelölje be a Kiszolgáló nélküli jelölőnégyzetet. Amikor a Kiszolgáló nélküli lehetőséget választja, a számítási beállítások törlődnek a felhasználói felületről. Lásd: Kiszolgáló nélküli Delta Live Tables-folyamat konfigurálása.
- (Nem kötelező) Válasszon ki egy termékverziót.
- Válassza a Folyamat mód aktiválva lehetőséget.
- Konfiguráljon egy vagy több jegyzetfüzetet, amely tartalmazza a folyamat forráskódját. Az Elérési utak szövegmezőbe írja be a jegyzetfüzet elérési útját, vagy kattintson a jegyzetfüzet kijelöléséhez.
- Válasszon egy célhelyet a folyamat által közzétett adathalmazokhoz, a Hive metaadattárhoz vagy a Unity Katalógushoz. Lásd: Adathalmazok közzététele.
- Hive metaadattár:
- (Nem kötelező) Adjon meg egy tárolási helyet a folyamat kimeneti adataihoz. A rendszer alapértelmezett helyet használ, ha üresen hagyja a tárolóhelyet .
- (Nem kötelező) Adjon meg egy célsémát , amely közzé szeretné tenni az adathalmazt a Hive metaadattárában.
- Unity Catalog: Adjon meg egy katalógust és egy célsémát az adatkészlet Unity Catalogban való közzétételéhez.
- Hive metaadattár:
- (Nem kötelező) Ha nem a Kiszolgáló nélküli beállítást választotta, konfigurálhatja a folyamat számítási beállításait. A számítási beállítások beállításairól a Delta Live Tables-folyamat számításának konfigurálása című témakörben olvashat.
- (Nem kötelező) Az Értesítés hozzáadása gombra kattintva konfigurálhat egy vagy több e-mail-címet a folyamateseményekre vonatkozó értesítések fogadásához. Lásd: E-mail-értesítések hozzáadása folyamateseményekhez.
- (Nem kötelező) Konfigurálja a folyamat speciális beállításait. A speciális beállítások beállításainak megismeréséhez tekintse meg a Delta Live Tables-folyamat konfigurálását ismertető témakört.
- Kattintson a Létrehozás gombra.
A Folyamat részletei lap a Létrehozás gombra kattintás után jelenik meg. A folyamat eléréséhez kattintson a folyamat nevére a Delta Live Tables lapon.
Folyamatfrissítés indítása
Egy folyamat frissítésének elindításához kattintson a felső panelen található gombra. A rendszer egy üzenetet ad vissza, amely megerősíti, hogy a folyamat elindult.
A frissítés sikeres elindítása után a Delta Live Tables rendszer:
- Fürt indítása a Delta Live Tables rendszer által létrehozott fürtkonfigurációval. Egyéni fürtkonfigurációt is megadhat.
- Olyan táblákat hoz létre, amelyek nem léteznek, és gondoskodik arról, hogy a séma megfelelő legyen a meglévő táblákhoz.
- Frissíti a táblákat a legújabb elérhető adatokkal.
- A frissítés befejezésekor leállítja a fürtöt.
Feljegyzés
A végrehajtási mód alapértelmezés szerint Éles állapotra van állítva, amely az egyes frissítésekhez rövid élettartamú számítási erőforrásokat helyez üzembe. A fejlesztési móddal módosíthatja ezt a viselkedést, így ugyanazokat a számítási erőforrásokat használhatja több folyamatfrissítéshez a fejlesztés és tesztelés során. Lásd: Fejlesztési és éles üzemmódok.
Adathalmazok közzététele
A Delta Live Tables-adathalmazok lekérdezésre való elérhetővé tétele a táblák Hive-metaadattárban vagy Unity-katalógusban való közzétételével tehető elérhetővé. Ha nem ad meg célhelyet az adatok közzétételéhez, a Delta Live Tables-folyamatokban létrehozott táblákat csak ugyanazon folyamat más műveletei érhetik el. Lásd: Delta Live Tables-folyamatok használata régi Hive-metaadattárral és Unity-katalógus használata a Delta Live Tables-folyamatokkal.
Példa forráskódfüzetekre
Ezeket a jegyzetfüzeteket importálhatja egy Azure Databricks-munkaterületre, és használhatja őket egy Delta Live Tables-folyamat üzembe helyezéséhez. Lásd: Folyamat létrehozása.
Ismerkedés a Delta Live Tables Python-jegyzetfüzetével
Ismerkedés a Delta Live Tables SQL-jegyzetfüzetével
Példa forráskód-jegyzetfüzetek Unity-katalógus nélküli munkaterületekhez
Ezeket a jegyzetfüzeteket a Unity Catalog engedélyezése nélkül importálhatja egy Azure Databricks-munkaterületre, és használhatja őket Delta Live Tables-folyamat üzembe helyezésére. Lásd: Folyamat létrehozása.