다음을 통해 공유


자습서: 첫 번째 Delta Live Tables 파이프라인 실행

이 자습서에서는 Databricks Notebook의 코드에서 Delta Live Tables 파이프라인을 구성하고 파이프라인 업데이트를 트리거하여 파이프라인을 실행하는 방법을 보여 줍니다. 이 자습서에는 PythonSQL 인터페이스를 사용하여 예제 코드로 샘플 데이터 세트를 수집하고 처리하는 예제 파이프라인이 포함되어 있습니다. 이 자습서의 지침을 사용하여 올바르게 정의된 Delta Live Tables 구문이 있는 모든 Notebook을 사용하여 파이프라인을 만들 수도 있습니다.

Azure Databricks 작업 영역 UI 또는 API, CLI, Databricks 자산 번들 등의 자동화된 도구 옵션 또는 Databricks 워크플로의 작업으로 Delta Live Tables 파이프라인을 구성하고 업데이트를 트리거할 수 있습니다. Delta Live Tables의 기능과 기능을 숙지하기 위해 Databricks는 먼저 UI를 사용하여 파이프라인을 만들고 실행하는 것이 좋습니다. 또한 UI에서 파이프라인을 구성할 때 Delta Live Tables는 프로그래매틱 워크플로를 구현하는 데 사용할 수 있는 파이프라인에 대한 JSON 구성을 생성합니다.

Delta Live Tables 기능을 시연하려면 이 자습서의 예제에서 공개적으로 사용 가능한 데이터 세트를 다운로드합니다. 그러나 Databricks에는 데이터 원본에 연결하고 실제 사용 사례를 구현하는 파이프라인 데이터를 수집하는 여러 가지 방법이 있습니다. Delta Live Tables를 사용하여 데이터 수집을 참조하세요.

요구 사항

  • 파이프라인을 시작하려면 Delta Live Tables 클러스터를 정의하는 클러스터 만들기 권한 또는 클러스터 정책에 대한 액세스 권한이 있어야 합니다. Delta Live Tables 런타임은 파이프라인을 실행하기 전에 클러스터를 만들고 올바른 권한이 없으면 실패합니다.

  • 이 자습서의 예제를 사용하려면 작업 영역에 Unity 카탈로그가 활성화되어 있어야 합니다.

  • Unity 카탈로그에 다음 권한이 있어야 합니다.

    • READ VOLUME 볼륨의 경우 WRITE VOLUMEALL PRIVILEGES, 또는 my-volume.
    • default 스키마의 경우 USE SCHEMA 또는 ALL PRIVILEGES.
    • main 카탈로그의 경우 USE CATALOG 또는 ALL PRIVILEGES.

    이러한 권한을 설정하려면 Databricks 관리자 또는 Unity 카탈로그 권한 및 보안 개체를 참조하세요.

  • 이 자습서의 예제에서는 Unity 카탈로그 볼륨 을 사용하여 샘플 데이터를 저장합니다. 이러한 예제를 사용하려면 볼륨을 만들고 해당 볼륨의 카탈로그, 스키마 및 볼륨 이름을 사용하여 예제에서 사용하는 볼륨 경로를 설정합니다.

참고 항목

작업 영역에 Unity 카탈로그를 사용하도록 설정하지 않은 경우 Unity 카탈로그가 필요하지 않은 예제가 포함된 Notebook이 이 문서에 첨부됩니다. 이러한 예제를 사용하려면 파이프라인을 만들 때 스토리지 옵션으로 Hive metastore를 선택합니다.

Delta Live Tables 쿼리는 어디에서 실행합니까?

Delta Live Tables 쿼리는 주로 Databricks Notebook에서 구현되지만 Delta Live Tables는 Notebook 셀에서 대화형으로 실행되도록 설계되지 않았습니다. Databricks Notebook에서 Delta Live Tables 구문을 포함하는 셀을 실행하면 오류 메시지가 표시됩니다. 쿼리를 실행하려면 Notebook을 파이프라인의 일부로 구성해야 합니다.

Important

  • Delta Live Tables에 대한 쿼리를 작성할 때는 Notebook의 셀 단위 실행 순서를 사용할 수 없습니다. Delta Live Tables는 Notebook에 정의된 모든 코드를 평가하고 실행하지만 Notebook 모두 실행 명령과는 다른 실행 모델을 갖습니다.
  • 단일 Delta Live Tables 소스 코드 파일에서는 언어를 혼합할 수 없습니다. 예를 들어 Notebook에는 Python 쿼리 또는 SQL 쿼리만 포함될 수 있습니다. 파이프라인에서 여러 언어를 사용해야 하는 경우 파이프라인에서 다수의 언어별 Notebook 또는 파일을 사용합니다.

파일에 저장된 Python 코드를 사용할 수도 있습니다. 예를 들어 Python 파이프라인으로 가져올 수 있는 Python 모듈을 만들거나 SQL 쿼리에서 사용할 Python UDF(사용자 정의 함수)를 정의할 수 있습니다. Python 모듈을 가져오는 방법에 대한 자세한 내용은 Git 폴더 또는 작업 영역 파일에서 Python 모듈 가져오기를 참조하세요. Python UDF 사용에 대한 자세한 내용은 사용자 정의 스칼라 함수 - Python을 참조하세요.

예: 뉴욕 아기 이름 데이터 수집 및 처리

이 문서의 예제에서는 뉴욕 주 아기 이름의 레코드를 포함하는 공개적으로 사용할 수 있는 데이터 세트를 사용합니다. 다음 예제에서는 Delta Live Tables 파이프라인을 사용하여 다음을 시연합니다.

  • 공개적으로 사용 가능한 데이터 세트에서 테이블로 원시 CSV 데이터를 읽습니다.
  • 원시 데이터 테이블에서 레코드를 읽고 Delta Live Tables 예상을 사용하여 정리된 데이터가 포함된 새 테이블을 만듭니다.
  • 정제된 레코드를 파생 데이터 세트를 만드는 Delta Live Tables에 입력으로 사용합니다.

이 코드는 Medallion 아키텍처의 간소화된 예제를 보여 줍니다. Medallion 레이크하우스 아키텍처란?을 참조하세요.

이 예제의 구현은 PythonSQL 인터페이스에 대해 제공됩니다. 단계에 따라 예제 코드가 포함된 새 Notebook을 만들거나 파이프라인 만들기로 건너뛰고 이 페이지에 제공된 Notebook 중 하나를 사용할 수 있습니다.

Python을 사용하여 Delta Live Tables 파이프라인 구현

Delta Live Tables 데이터 세트를 만드는 Python 코드는 DataFrame을 반환해야 합니다. Python 및 DataFrame에 익숙하지 않은 사용자의 경우 Databricks는 SQL 인터페이스를 사용하는 것이 좋습니다. SQL을 사용하여 Delta Live Tables 파이프라인 구현을 참조하세요.

모든 Delta Live Tables Python API가 dlt 모듈에서 구현됩니다. Python으로 구현된 Delta Live Tables 파이프라인 코드는 Python Notebook 및 파일 맨 위에 있는 dlt 모듈을 명시적으로 가져와야 합니다. Delta Live Tables은 주요 방법에서 많은 Python 스크립트와 다릅니다. 데이터 수집 및 변환을 수행하는 함수를 호출하지 않고 Delta Live Tables 데이터 세트를 만듭니다. 대신 Delta Live Tables는 파이프라인에 로드된 모든 파일의 dlt 모듈에서 데코레이터 함수를 해석하고 데이터 흐름 그래프를 작성합니다.

이 자습서의 예제를 구현하려면 다음 Python 코드를 복사하여 새 Python Notebook에 붙여 넣습니다. 설명된 순서대로 Notebook의 자체 셀에 각 예제 코드 조각을 추가합니다. Notebook을 만들기 위한 옵션을 검토하려면 Notebook 만들기를 참조하세요.

Python 인터페이스로 파이프라인을 만들 때 기본적으로 테이블 이름은 함수 이름으로 정의됩니다. 예를 들어, 다음 Python 예에서는 baby_names_raw, baby_names_preparedtop_baby_names_2021라는 세 개의 테이블을 만듭니다. name 매개 변수를 사용하여 테이블 이름을 재정의할 수 있습니다. Delta Live Tables 구체화된 뷰 또는 스트리밍 테이블 만들기를 참조하세요.

Important

파이프라인이 실행될 때 예기치 않은 동작을 방지하려면 데이터 세트를 정의하는 함수에 부작용이 있을 수 있는 코드를 포함하지 마세요. 자세한 내용은 Python 참조를 확인하세요.

Delta Live Tables 모듈 가져오기

모든 Delta Live Tables Python API가 dlt 모듈에서 구현됩니다. Python Notebook 및 파일 맨 위에 있는 dlt 모듈을 명시적으로 가져옵니다.

다음 예제에서는 이 가져오기와 pyspark.sql.functions에 대한 import 문을 보여 줍니다.

import dlt
from pyspark.sql.functions import *

데이터 다운로드

이 예제의 데이터를 얻으려면 CSV 파일을 다운로드하고 다음과 같이 볼륨에 저장합니다.

import os

os.environ["UNITY_CATALOG_VOLUME_PATH"] = "/Volumes/<catalog-name>/<schema-name>/<volume-name>/"
os.environ["DATASET_DOWNLOAD_URL"] = "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"
os.environ["DATASET_DOWNLOAD_FILENAME"] = "rows.csv"

dbutils.fs.cp(f"{os.environ.get('DATASET_DOWNLOAD_URL')}", f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}")

<catalog-name>, <schema-name><volume-name>을 Unity 카탈로그 볼륨의 카탈로그, 스키마 및 볼륨 이름으로 바꿉니다.

개체 스토리지의 파일에서 테이블 만들기

Delta Live Tables는 Azure Databricks에서 지원하는 모든 형식의 데이터 로드를 지원합니다. 데이터 형식 옵션을 참조하세요.

@dlt.table 데코레이터는 Delta Live Tables에 함수에서 반환된 DataFrame 결과를 포함하는 테이블을 만들도록 지시합니다. Spark DataFrame을 반환하는 아무 Python 함수 정의 앞에 @dlt.table 데코레이터를 추가하여 Delta Live Tables에 새 테이블을 등록합니다. 다음 예제에서는 함수 이름을 표 이름으로 사용하고 설명 주석을 테이블에 추가하는 방법을 보여 줍니다.

@dlt.table(
  comment="Popular baby first names in New York. This data was ingested from the New York State Department of Health."
)
def baby_names_raw():
  df = spark.read.csv(f"{os.environ.get('UNITY_CATALOG_VOLUME_PATH')}{os.environ.get('DATASET_DOWNLOAD_FILENAME')}", header=True, inferSchema=True)
  df_renamed_column = df.withColumnRenamed("First Name", "First_Name")
  return df_renamed_column

업스트림 데이터 세트에서 파이프라인으로 테이블 추가

현재 Delta Live Tables 파이프라인에 선언된 다른 데이터 세트의 데이터를 읽는 데 dlt.read()를 사용할 수 있습니다. 이러한 방식으로 새 테이블을 선언하면 업데이트를 실행하기 전에 Delta Live Tables가 자동으로 확인하는 종속성이 만들어집니다. 다음 코드에는 예상과 함께 데이터 품질을 모니터링하고 적용하는 예제도 포함되어 있습니다. Delta Live Tables를 사용하여 데이터 품질 관리를 참조하세요.

@dlt.table(
  comment="New York popular baby first name data cleaned and prepared for analysis."
)
@dlt.expect("valid_first_name", "First_Name IS NOT NULL")
@dlt.expect_or_fail("valid_count", "Count > 0")
def baby_names_prepared():
  return (
    dlt.read("baby_names_raw")
      .withColumnRenamed("Year", "Year_Of_Birth")
      .select("Year_Of_Birth", "First_Name", "Count")
  )

보강된 데이터 뷰를 사용하여 테이블 만들기

Delta Live Tables는 파이프라인에 대한 업데이트를 일련의 종속성 그래프 처리하므로 특정 비즈니스 논리를 사용하여 테이블을 선언하여 대시보드, BI 및 분석을 구동하는 고도로 보강된 뷰를 선언할 수 있습니다.

Delta Live Tables의 테이블은 개념적으로 구체화된 뷰와 동일합니다. 뷰를 쿼리할 때마다 논리를 실행하는 Spark의 기존 보기와 달리 Delta Live Tables 테이블은 최신 버전의 쿼리 결과를 데이터 파일에 저장합니다. Delta Live Tables는 파이프라인의 모든 데이터 세트에 대한 업데이트를 관리하므로 구체화된 뷰에 대한 대기 시간 요구 사항과 일치하도록 파이프라인 업데이트를 예약하고 이러한 테이블에 대한 쿼리에 사용 가능한 최신 버전의 데이터가 포함되어 있음을 알 수 있습니다.

다음 코드로 정의된 테이블은 파이프라인의 업스트림 데이터에서 파생된 구체화된 뷰와 개념적 유사성을 보여 줍니다.

@dlt.table(
  comment="A table summarizing counts of the top baby names for New York for 2021."
)
def top_baby_names_2021():
  return (
    dlt.read("baby_names_prepared")
      .filter(expr("Year_Of_Birth == 2021"))
      .groupBy("First_Name")
      .agg(sum("Count").alias("Total_Count"))
      .sort(desc("Total_Count"))
      .limit(10)
  )

Notebook을 사용하는 파이프라인을 구성하려면 파이프라인 만들기를 참조하세요.

SQL을 사용하여 Delta Live Tables 파이프라인 구현

Databricks는 SQL 사용자가 Azure Databricks에서 새 ETL, 수집 및 변환 파이프라인을 구축하는 기본 방법으로 SQL이 있는 Delta Live Tables를 권장합니다. Delta Live Tables의 SQL 인터페이스는 많은 신규 키워드, 구문 및 테이블 반환 함수를 사용하여 표준 Spark SQL을 확장합니다. 이렇게 표준 SQL에 추가하면 사용자는 새 도구 또는 추가 개념을 학습하지 않고도 데이터 세트 간의 종속성을 선언하고 프로덕션 등급 인프라를 배포할 수 있습니다.

Spark DataFrame에 익숙하고 메타프로그래밍 작업과 같이 SQL로 구현하기 어려운 보다 광범위한 테스트 및 작업에 대한 지원이 필요한 사용자의 경우 Databricks는 Python 인터페이스를 사용하는 것이 좋습니다. Python을 사용하여 Delta Live Tables 파이프라인 구현을 참조하세요.

데이터 다운로드

이 예제의 데이터를 얻으려면 다음 코드를 복사하여 새 Notebook에 붙여 넣은 다음 Notebook을 실행합니다. Notebook을 만들기 위한 옵션을 검토하려면 Notebook 만들기를 참조하세요.

%sh
wget -O "/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv" "https://health.data.ny.gov/api/views/jxy9-yhdk/rows.csv"

<catalog-name>, <schema-name><volume-name>을 Unity 카탈로그 볼륨의 카탈로그, 스키마 및 볼륨 이름으로 바꿉니다.

Unity 카탈로그의 파일에서 테이블 만들기

이 예제의 나머지 부분에서는 다음 SQL 조각을 복사하여 이전 섹션의 Notebook과 별도로 새 SQL Notebook에 붙여 넣습니다. 설명된 순서대로 Notebook의 자체 셀에 각 예제 SQL 코드 조각을 추가합니다.

Delta Live Tables는 Azure Databricks에서 지원하는 모든 형식의 데이터 로드를 지원합니다. 데이터 형식 옵션을 참조하세요.

모든 Delta Live Tables SQL 문은 CREATE OR REFRESH 구문 및 의미 체계를 사용합니다. 파이프라인을 업데이트할 때 Delta Live Tables는 증분 처리를 통해 테이블에 대한 논리적으로 올바른 결과를 달성할 수 있는지 또는 전체 다시 계산이 필요한지 여부를 결정합니다.

다음 예제에서는 Unity 카탈로그 볼륨에 저장된 CSV 파일에서 데이터를 로드하여 테이블을 만듭니다.

CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_raw
COMMENT "Popular baby first names in New York. This data was ingested from the New York State Department of Health."
AS SELECT Year, `First Name` AS First_Name, County, Sex, Count FROM read_files(
  '/Volumes/<catalog-name>/<schema-name>/<volume-name>/babynames.csv',
  format => 'csv',
  header => true,
  mode => 'FAILFAST')

<catalog-name>, <schema-name><volume-name>을 Unity 카탈로그 볼륨의 카탈로그, 스키마 및 볼륨 이름으로 바꿉니다.

업스트림 데이터 세트에서 파이프라인으로 테이블 추가

현재 Delta Live Tables 파이프라인에 선언된 다른 데이터 세트의 데이터를 쿼리하는 데 live 가상 스키마를 사용할 수 있습니다. 이러한 방식으로 새 테이블을 선언하면 업데이트를 실행하기 전에 Delta Live Tables가 자동으로 확인하는 종속성이 만들어집니다. live 스키마는 데이터 세트를 게시하려는 경우 대상 스키마로 대체될 수 있는 Delta Live Tables에 구현된 사용자 지정 키워드입니다. Delta Live Tables 파이프라인에서 Unity 카탈로그 사용 및 레거시 Hive 메타스토어와 함께 Delta Live Tables 파이프라인 사용을 참조하세요.

다음 코드에는 예상과 함께 데이터 품질을 모니터링하고 적용하는 예제도 포함되어 있습니다. Delta Live Tables를 사용하여 데이터 품질 관리를 참조하세요.

CREATE OR REFRESH MATERIALIZED VIEW baby_names_sql_prepared(
  CONSTRAINT valid_first_name EXPECT (First_Name IS NOT NULL),
  CONSTRAINT valid_count EXPECT (Count > 0) ON VIOLATION FAIL UPDATE
)
COMMENT "New York popular baby first name data cleaned and prepared for analysis."
AS SELECT
  Year AS Year_Of_Birth,
  First_Name,
  Count
FROM live.baby_names_sql_raw;

보강된 데이터 뷰 만들기

Delta Live Tables는 파이프라인에 대한 업데이트를 일련의 종속성 그래프 처리하므로 특정 비즈니스 논리를 사용하여 테이블을 선언하여 대시보드, BI 및 분석을 구동하는 고도로 보강된 뷰를 선언할 수 있습니다.

다음 쿼리는 구체화된 뷰를 사용하여 업스트림 데이터에서 보강된 뷰를 만듭니다. 뷰를 쿼리할 때마다 논리를 실행하는 Spark의 기존 뷰와 달리 구체화된 뷰는 쿼리 결과의 최신 버전을 데이터 파일에 저장합니다. Delta Live Tables는 파이프라인의 모든 데이터 세트에 대한 업데이트를 관리하므로 구체화된 뷰에 대한 대기 시간 요구 사항과 일치하도록 파이프라인 업데이트를 예약하고 이러한 테이블에 대한 쿼리에 사용 가능한 최신 버전의 데이터가 포함되어 있음을 알 수 있습니다.

CREATE OR REFRESH MATERIALIZED VIEW top_baby_names_sql_2021
COMMENT "A table summarizing counts of the top baby names for New York for 2021."
AS SELECT
  First_Name,
  SUM(Count) AS Total_Count
FROM live.baby_names_sql_prepared
WHERE Year_Of_Birth = 2021
GROUP BY First_Name
ORDER BY Total_Count DESC
LIMIT 10;

Notebook을 사용하는 파이프라인을 구성하려면 파이프라인 만들기를 계속하세요.

파이프라인 만들기

참고 항목

  • 컴퓨팅 리소스는 서버리스 DLT 파이프라인에 대해 완전 관리형이므로 파이프라인에 대해 서버리스를 선택할 때 컴퓨팅 설정을 사용할 수 없습니다.
  • 서버리스 DLT 파이프라인의 자격 및 사용 설정에 대한 자세한 내용은 서버리스 컴퓨팅 사용을 참조하세요.

Delta Live Tables는 Delta Live Tables 구문을 사용하여 Notebook 또는 파일(소스 코드라고 함)에 정의된 종속성을 확인하여 파이프라인을 만듭니다. 각 소스 코드 파일은 하나의 언어만 포함할 수 있지만 파이프라인에서 서로 다른 언어의 소스 코드를 혼합할 수 있습니다.

  1. 사이드바에서 Delta Live Tables를 클릭한 다음 파이프라인 만들기를 클릭합니다.
  2. 파이프라인에 이름을 지정합니다.
  3. (선택 사항) 서버리스 DLT 파이프라인을 사용하여 파이프라인을 실행하려면 서버리스 확인란을 선택합니다. 서버리스를 선택하면 컴퓨팅 설정이 UI에서 제거됩니다. 서버리스 Delta Live Tables 파이프라인 구성을 참조하세요.
  4. (선택 사항) 제품 버전을 선택합니다.
  5. 파이프라인 모드에 대해 트리거됨을 선택합니다.
  6. 파이프라인에 대한 소스 코드가 포함된 하나 이상의 Notebook을 구성합니다. 경로 텍스트 상자에 Notebook 경로를 입력하거나 파일 선택기 아이콘을 클릭하여 Notebook을 선택합니다.
  7. 파이프라인에서 게시한 데이터 세트의 대상을 Hive 메타스토어 또는 Unity 카탈로그에서 선택합니다. 데이터 세트 게시를 참조하세요.
    • Hive 메타스토어
      • (선택 사항) 파이프라인의 출력 데이터에 대한 스토리지 위치를 입력합니다. 스토리지 위치를 비워 두면 시스템에서 기본 위치를 사용합니다.
      • (선택 사항) Hive 메타스토어에 데이터 세트를 게시할 대상 스키마를 지정합니다.
    • Unity 카탈로그: 데이터 세트를 Unity 카탈로그에 게시할 카탈로그대상 스키마를 지정합니다.
  8. (선택 사항) 서버리스를 선택하지 않은 경우 파이프라인에 대한 컴퓨팅 설정을 구성할 수 있습니다. 컴퓨팅 설정 옵션에 대한 자세한 내용은 Delta Live Tables 파이프라인에 대한 컴퓨팅 구성을 참조하세요.
  9. (선택 사항) 알림 추가를 클릭하여 파이프라인 이벤트에 대한 알림을 받도록 하나 이상의 전자 메일 주소를 구성합니다. 파이프라인 이벤트에 대한 이메일 알림 추가를 참조하세요.
  10. (선택 사항) 파이프라인에 대한 고급 설정을 구성합니다. 고급 설정에 대한 옵션에 대한 자세한 내용은 Delta Live Tables 파이프라인 구성을 참조하세요.
  11. 만들기를 클릭합니다.

만들기를 클릭하면 파이프라인 세부 정보 페이지가 나타납니다. Delta Live Tables 탭에서 파이프라인 이름을 클릭하여 파이프라인에 액세스할 수도 있습니다.

파이프라인 업데이트 시작

새 파이프라인에 대한 업데이트를 시작하려면 상단 패널에서 Delta Live Tables 시작 아이콘를 클릭합니다. 시스템은 파이프라인이 시작되고 있음을 확인하는 메시지를 반환합니다.

업데이트가 성공적으로 시작되면 Delta Live Tables 시스템에서 다음을 수행합니다.

  1. Delta Live Tables 시스템에서 만든 클러스터 구성을 사용하여 클러스터를 시작합니다. 사용자 지정 클러스터 구성을 지정할 수도 있습니다.
  2. 존재하지 않는 태블릿을 만들고 스키마가 기존 테이블에 대해 올바른지 확인합니다.
  3. 사용 가능한 최신 데이터로 테이블을 업데이트합니다.
  4. 업데이트가 완료되면 클러스터를 종료합니다.

참고 항목

실행 모드는 기본적으로 프로덕션으로 설정되며 각 업데이트에 대한 임시 컴퓨팅 리소스를 배포합니다. 개발 모드를 사용하여 이 동작을 변경하면 개발 및 테스트 중에 여러 파이프라인 업데이트에 동일한 컴퓨팅 리소스를 사용할 수 있습니다. 개발 및 프로덕션 모드를 참조하세요.

데이터 세트 게시

Hive 메타스토어 또는 Unity 카탈로그에 테이블을 게시하여 Delta Live Tables 데이터 세트를 쿼리에 사용할 수 있도록 할 수 있습니다. 데이터 게시 대상을 지정하지 않으면 Delta Live Tables 파이프라인에서 만든 테이블은 동일한 파이프라인의 다른 작업에서만 액세스할 수 있습니다. 레거시 Hive 메타스토어에서 델타 라이브 테이블 파이프라인 사용 및 Delta Live Tables 파이프라인에서 Unity 카탈로그 사용을 참조하세요.

예제 소스 코드 Notebook

이러한 Notebook을 Azure Databricks 작업 영역으로 가져와서 Delta Live Tables 파이프라인을 배포하는 데 사용할 수 있습니다. 파이프라인 만들기를 참조하세요.

Delta Live Tables Python Notebook 시작

Notebook 가져오기

Delta Live Tables SQL Notebook 시작

Notebook 가져오기

Unity 카탈로그가 없는 작업 영역에 대한 예제 소스 코드 Notebook

Unity 카탈로그를 사용하지 않고 이러한 Notebook을 Azure Databricks 작업 영역으로 가져와서 Delta Live Tables 파이프라인을 배포하는 데 사용할 수 있습니다. 파이프라인 만들기를 참조하세요.

Delta Live Tables Python Notebook 시작

Notebook 가져오기

Delta Live Tables SQL Notebook 시작

Notebook 가져오기