Teilen über


make_dt_interval

Erstellen Sie die DayTimeIntervalType-Dauer aus Tagen, Stunden, Minuten und Sekunden.

Die entsprechende Databricks SQL-Funktion finden Sie unter make_dt_interval Funktion.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.make_dt_interval(days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)

Die Parameter

Parameter Typ Description
days pyspark.sql.Column oder str, optional Die Anzahl der Tage, positiv oder negativ.
hours pyspark.sql.Column oder str, optional Die Anzahl der Stunden, positiv oder negativ.
mins pyspark.sql.Column oder str, optional Die Anzahl der Minuten, positiv oder negativ.
secs pyspark.sql.Column oder str, optional Die Anzahl der Sekunden mit der Bruchzahl in Mikrosekundenpräzision.

Rückkehr

pyspark.sql.Column: Eine neue Spalte, die eine DayTimeIntervalType-Dauer enthält.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour, df.min, df.sec)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, 'hour', df.min)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval('day')).show(truncate=False)
spark.range(1).select(dbf.make_dt_interval()).show(truncate=False)