Partilhar via


cliente potencial

Função janela: devolve o valor que corresponde offset às linhas após a linha atual, e default se houver menos de offset linhas depois da linha atual. Por exemplo, um offset de um devolverá a próxima linha em qualquer ponto dado da partição da janela.

Isto é equivalente à função LEAD em SQL.

Sintaxe

from pyspark.sql import functions as sf

sf.lead(col, offset=1, default=None)

Parâmetros

Parâmetro Tipo Description
col pyspark.sql.Column ou nome da coluna Nome da coluna ou expressão.
offset int, opcional Número de filas para estender. A predefinição é 1.
default optional Valor padrão.

Devoluções

pyspark.sql.Column: valor após a linha atual baseada em offset.

Examples

Exemplo 1: Usar chumbo para obter o próximo valor

from pyspark.sql import functions as sf
from pyspark.sql import Window
df = spark.createDataFrame(
    [("a", 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["c1", "c2"])
df.show()
+---+---+
| c1| c2|
+---+---+
|  a|  1|
|  a|  2|
|  a|  3|
|  b|  8|
|  b|  2|
+---+---+
w = Window.partitionBy("c1").orderBy("c2")
df.withColumn("next_value", sf.lead("c2").over(w)).show()
+---+---+----------+
| c1| c2|next_value|
+---+---+----------+
|  a|  1|         2|
|  a|  2|         3|
|  a|  3|      NULL|
|  b|  2|         8|
|  b|  8|      NULL|
+---+---+----------+

Exemplo 2: Usar chumbo com valor padrão

from pyspark.sql import functions as sf
from pyspark.sql import Window
df = spark.createDataFrame(
    [("a", 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["c1", "c2"])
w = Window.partitionBy("c1").orderBy("c2")
df.withColumn("next_value", sf.lead("c2", 1, 0).over(w)).show()
+---+---+----------+
| c1| c2|next_value|
+---+---+----------+
|  a|  1|         2|
|  a|  2|         3|
|  a|  3|         0|
|  b|  2|         8|
|  b|  8|         0|
+---+---+----------+

Exemplo 3: Usar chumbo com um deslocamento de 2

from pyspark.sql import functions as sf
from pyspark.sql import Window
df = spark.createDataFrame(
    [("a", 1), ("a", 2), ("a", 3), ("b", 8), ("b", 2)], ["c1", "c2"])
w = Window.partitionBy("c1").orderBy("c2")
df.withColumn("next_value", sf.lead("c2", 2, -1).over(w)).show()
+---+---+----------+
| c1| c2|next_value|
+---+---+----------+
|  a|  1|         3|
|  a|  2|        -1|
|  a|  3|        -1|
|  b|  2|        -1|
|  b|  8|        -1|
+---+---+----------+