다음을 통해 공유


make_timestamp_ltz

연도, 월, 일, 시간, 분, 초 및 시간대 필드에서 현지 시간대를 사용하여 현재 타임스탬프를 생성합니다. 구성 spark.sql.ansi.enabled 이 false이면 함수는 잘못된 입력에 대해 NULL을 반환합니다. 그렇지 않으면 오류가 발생합니다.

문법

from pyspark.databricks.sql import functions as dbf

dbf.make_timestamp_ltz(years=<years>, months=<months>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>, timezone=<timezone>)

매개 변수

매개 변수 유형 Description
years pyspark.sql.Column 또는 str 1에서 9999까지 대표할 연도
months pyspark.sql.Column 또는 str 1월(1월)에서 12월(12월)으로 나타낼 연도의 월입니다.
days pyspark.sql.Column 또는 str 1에서 31까지 나타낼 월의 날짜입니다.
hours pyspark.sql.Column 또는 str 나타낼 시간(0에서 23까지)입니다.
mins pyspark.sql.Column 또는 str 나타낼 시간(0에서 59까지)입니다.
secs pyspark.sql.Column 또는 str 0에서 60까지의 초 분 및 나타낼 마이크로 분수입니다. 값은 13과 같은 정수이거나 13.123과 같은 분수일 수 있습니다. sec 인수가 60과 같으면 초 필드가 0으로 설정되고 1분이 마지막 타임스탬프에 추가됩니다.
timezone pyspark.sql.Column 또는 str, optional 표준 시간대 식별자입니다. 예를 들어 CET, UTC 등입니다.

Returns

pyspark.sql.Column: 현재 타임스탬프를 포함하는 새 열입니다.

예시

spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec, 'tz')
).show(truncate=False)
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec)
).show(truncate=False)
spark.conf.unset("spark.sql.session.timeZone")