rowsBetween (okno)

Tworzy obiekt WindowSpec z zdefiniowanymi granicami ramek od start (włącznie) do end (włącznie).

Oba start i end są względnymi pozycjami z bieżącego wiersza. Na przykład 0 oznacza "bieżący wiersz", -1 oznacza wiersz przed bieżącym wierszem i 5 oznacza piąty wiersz po bieżącym wierszu.

Granica oparta na wierszach jest oparta na pozycji wiersza w partycji. Przesunięcie wskazuje liczbę wierszy powyżej lub poniżej bieżącego wiersza, w którym rozpoczyna się lub kończy ramka.

Składnia

Window.rowsBetween(start, end)

Parametry

Parameter Typ Opis
start int Początek granicy, włącznie. Ramka jest niezwiązana, jeśli jest Window.unboundedPrecedingto , lub dowolna wartość mniejsza niż lub równa -9223372036854775808.
end int Koniec granicy, włącznie. Ramka jest niezwiązana, jeśli jest Window.unboundedFollowingto , lub dowolna wartość większa niż lub równa 9223372036854775807.

Zwroty

WindowSpec

Notatki

Użyj Window.unboundedPreceding, Window.unboundedFollowingi Window.currentRow , aby określić specjalne wartości granic, a nie bezpośrednio używać wartości całkowitych.

Examples

from pyspark.sql import Window, functions as sf

df = spark.createDataFrame(
    [(1, "a"), (1, "a"), (2, "a"), (1, "b"), (2, "b"), (3, "b")], ["id", "category"])

# Calculate the sum of id from the current row to current row + 1 in each category partition.
window = Window.partitionBy("category").orderBy("id").rowsBetween(Window.currentRow, 1)
df.withColumn("sum", sf.sum("id").over(window)).sort("id", "category", "sum").show()
# +---+--------+---+
# | id|category|sum|
# +---+--------+---+
# |  1|       a|  2|
# |  1|       a|  3|
# |  1|       b|  3|
# |  2|       a|  2|
# |  2|       b|  5|
# |  3|       b|  3|
# +---+--------+---+