Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Erstellen Sie die DayTimeIntervalType-Dauer aus Tagen, Stunden, Minuten und Sekunden.
Die entsprechende Databricks SQL-Funktion finden Sie unter make_dt_interval Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.make_dt_interval(days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
days |
pyspark.sql.Column oder str, optional |
Die Anzahl der Tage, positiv oder negativ. |
hours |
pyspark.sql.Column oder str, optional |
Die Anzahl der Stunden, positiv oder negativ. |
mins |
pyspark.sql.Column oder str, optional |
Die Anzahl der Minuten, positiv oder negativ. |
secs |
pyspark.sql.Column oder str, optional |
Die Anzahl der Sekunden mit der Bruchzahl in Mikrosekundenpräzision. |
Rückkehr
pyspark.sql.Column: Eine neue Spalte, die eine DayTimeIntervalType-Dauer enthält.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour, df.min, df.sec)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, 'hour', df.min)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval('day')).show(truncate=False)
spark.range(1).select(dbf.make_dt_interval()).show(truncate=False)