Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Gere uma sequência de inteiros do início ao fim, incrementando por etapa. Se a etapa não estiver definida, a função aumentará em 1 se a inicialização for menor ou igual a parar, caso contrário, ela diminuirá em 1.
Sintaxe
from pyspark.sql import functions as sf
sf.sequence(start, stop, step=None)
Parâmetros
| Parâmetro | Tipo | Description |
|---|---|---|
start |
pyspark.sql.Column ou str |
O valor inicial (inclusive) da sequência. |
stop |
pyspark.sql.Column ou str |
O último valor (inclusive) da sequência. |
step |
pyspark.sql.Column ou str, opcional |
O valor a ser adicionado ao elemento atual para obter o próximo elemento na sequência. O padrão é 1 se a inicialização for menor ou igual a parar, caso contrário - 1. |
Devoluções
pyspark.sql.Column: uma nova coluna que contém uma matriz de valores de sequência.
Exemplos
Exemplo 1: Gerando uma sequência com a etapa padrão
import pyspark.sql.functions as sf
df = spark.createDataFrame([(-2, 2)], ['start', 'stop'])
df.select(sf.sequence(df.start, df.stop)).show()
+---------------------+
|sequence(start, stop)|
+---------------------+
| [-2, -1, 0, 1, 2]|
+---------------------+
Exemplo 2: Gerando uma sequência com uma etapa personalizada
import pyspark.sql.functions as sf
df = spark.createDataFrame([(4, -4, -2)], ['start', 'stop', 'step'])
df.select(sf.sequence(df.start, df.stop, df.step)).show()
+---------------------------+
|sequence(start, stop, step)|
+---------------------------+
| [4, 2, 0, -2, -4]|
+---------------------------+
Exemplo 3: Gerando uma sequência com uma etapa negativa
import pyspark.sql.functions as sf
df = spark.createDataFrame([(5, 1, -1)], ['start', 'stop', 'step'])
df.select(sf.sequence(df.start, df.stop, df.step)).show()
+---------------------------+
|sequence(start, stop, step)|
+---------------------------+
| [5, 4, 3, 2, 1]|
+---------------------------+