Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Berechnet die Ereigniszeit aus einer Fensterspalte. Die Spaltenfensterwerte werden von Fensteraggregationsoperatoren erzeugt und sind vom Typ STRUCT<start: TIMESTAMP, end: TIMESTAMP> , in dem Start inklusive und End exklusiv ist. Die Ereigniszeit von Datensätzen, die von Fensteraggregationsoperatoren erzeugt werden, können wie window_time(window) sie window.end - lit(1).alias("microsecond") berechnet werden (da Mikrosekunden die minimale unterstützte Ereigniszeitgenauigkeit ist). Die Fensterspalte muss von einem Fensteraggregationsoperator erstellt werden.
Die entsprechende Databricks SQL-Funktion finden Sie unter window_time Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.window_time(windowColumn=<windowColumn>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
windowColumn |
pyspark.sql.Column oder str |
Die Fensterspalte eines Fensteraggregatdatensätzes. |
Rückkehr
pyspark.sql.Column: die Spalte für berechnete Ergebnisse.
Examples
import datetime
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(datetime.datetime(2016, 3, 11, 9, 0, 7), 1)], ['dt', 'v'])
df2 = df.groupBy(dbf.window('dt', '5 seconds')).agg(dbf.sum('v'))