Teilen über


window_time

Berechnet die Ereigniszeit aus einer Fensterspalte. Die Spaltenfensterwerte werden von Fensteraggregationsoperatoren erzeugt und sind vom Typ STRUCT<start: TIMESTAMP, end: TIMESTAMP> , in dem Start inklusive und End exklusiv ist. Die Ereigniszeit von Datensätzen, die von Fensteraggregationsoperatoren erzeugt werden, können wie window_time(window) sie window.end - lit(1).alias("microsecond") berechnet werden (da Mikrosekunden die minimale unterstützte Ereigniszeitgenauigkeit ist). Die Fensterspalte muss von einem Fensteraggregationsoperator erstellt werden.

Die entsprechende Databricks SQL-Funktion finden Sie unter window_time Funktion.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.window_time(windowColumn=<windowColumn>)

Die Parameter

Parameter Typ Description
windowColumn pyspark.sql.Column oder str Die Fensterspalte eines Fensteraggregatdatensätzes.

Rückkehr

pyspark.sql.Column: die Spalte für berechnete Ergebnisse.

Examples

import datetime
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(datetime.datetime(2016, 3, 11, 9, 0, 7), 1)], ['dt', 'v'])
df2 = df.groupBy(dbf.window('dt', '5 seconds')).agg(dbf.sum('v'))