Udostępnij przez


make_dt_interval

Ustaw czas trwania DayTimeIntervalType z dni, godzin, minut i sekund.

Aby uzyskać odpowiednią funkcję SQL usługi Databricks, zobacz make_dt_interval funkcja.

Składnia

from pyspark.databricks.sql import functions as dbf

dbf.make_dt_interval(days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)

Parametry

Parameter Typ Description
days pyspark.sql.Column lub str, optional Liczba dni, dodatnia lub ujemna.
hours pyspark.sql.Column lub str, optional Liczba godzin, dodatnia lub ujemna.
mins pyspark.sql.Column lub str, optional Liczba minut, dodatnia lub ujemna.
secs pyspark.sql.Column lub str, optional Liczba sekund z częścią ułamkową w mikrosekundach precyzji.

Zwraca

pyspark.sql.Column: nowa kolumna zawierająca czas trwania DayTimeIntervalType.

Przykłady

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour, df.min, df.sec)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, 'hour', df.min)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval('day')).show(truncate=False)
spark.range(1).select(dbf.make_dt_interval()).show(truncate=False)